Cette semaine, Microsoft, Google, OpenAI et Anthropic ont créé le Frontier Model Forum, qui se consacre à la sécurité et à la responsabilité de l'IA.
Le Forum mission comprend l'identification des meilleures pratiques en matière d'IA, le soutien aux secteurs public et privé, la collaboration avec les universitaires et le travail avec les décideurs politiques pour s'assurer que les avantages de l'IA sont canalisés et que les risques sont atténués.
Cette décision intervient peu de temps après que sept entreprises spécialisées dans l'IA ont opté pour un cadre volontaire en matière d'IA. décrite par la Maison Blanche.
Ce type de collaboration entre rivaux est relativement courant dans le secteur naissant de l'IA, où les concurrents ont parfois partagé du matériel et des recherches, mais cela ne veut pas dire que la substance réelle des modèles ne reste pas sous clé.
OpenAI, soutenue par Microsoft, a été collaborer avec les rivaux de l'entrepriseSalesforce et Duckduckgo, ce qui montre que les relations dans le monde de l'IA sont compliquées.
Les experts estiment que le succès du forum exige un niveau de collaboration allant au-delà du partage des ressources pour un bénéfice mutuel - il implique que les entreprises du secteur de l'IA dévoilent leurs moindres rouages.
Avivah Litan, analyste de premier plan chez Gartner, doute que le Forum atteigne ses objectifs : "Les chances qu'un groupe de concurrents acharnés parvienne à trouver une solution commune utile et à la mettre en œuvre de manière omniprésente - à la fois dans les modèles fermés et ouverts qu'ils contrôlent et que d'autres contrôlent dans le monde entier - sont pratiquement nulles".
Le forum se compose actuellement de quatre membres fondateurs, mais il est ouvert à d'autres organisations qui s'engagent à développer des modèles sûrs et à soutenir des initiatives sectorielles plus larges.
M. Litan s'est montré optimiste à l'égard des entreprises une meilleure influence sur la réglementation mais a souligné la nécessité d'un organisme de réglementation international pour faire respecter les normes mondiales en matière d'IA.
"Étant donné que nous n'avons pas encore assisté à une collaboration gouvernementale mondiale sur le changement climatique, où les solutions sont déjà connues, il est encore plus difficile de s'attendre à une telle coopération sur l'IA, où les solutions ne sont pas encore définies. Au moins, ces entreprises peuvent s'efforcer d'identifier des solutions, et c'est un aspect positif", a déclaré M. Litan.
Certains expriment leur optimisme à l'égard du Frontier Model Forum
Kate Devlin, maître de conférences en IA au King's College de Londres, a pris acte des sentiments positifs exprimés par le Frontier Model Forum.
"L'annonce semble se concentrer principalement sur les approches techniques. Cependant, lorsque l'on développe l'IA de manière responsable, il faut tenir compte d'aspects sociotechniques plus larges", a déclaré le Dr Devlin notée.
En outre, le forum pourrait simplifier la coopération en matière de réglementation, en veillant à ce que les règles soient appliquées à l'ensemble du secteur.
Par exemple, le Forum s'est engagé à soutenir le processus d'IA d'Hiroshima du G7, un pacte conclu lors du sommet du G7 au Japon, en demandant une collaboration avec l'OCDE et le GPAI.
L'IA ne faisant l'objet que de peu ou pas de règles obligatoires, l'orientation de la technologie reste entre les mains des développeurs, qui tentent au moins superficiellement de limiter les risques dans l'immédiat.
Les résultats des efforts de collaboration, tels que le forum, sont très attendus.