Plus de 100 grands experts de l'IA ont publié une lettre ouverte exigeant que les entreprises à l'origine des technologies d'IA générative, comme OpenAI, Meta et d'autres, ouvrent leurs portes à des tests indépendants.
Leur message est clair : les conditions générales des développeurs d'IA freinent les efforts de recherche indépendants sur la sécurité des outils d'IA.
Les cosignataires sont des experts de premier plan tels que Percy Liang de Stanford, Julia Angwin, lauréate du prix Pulitzer, Renée DiResta de l'Observatoire de l'internet de Stanford, Deb Raji, membre de Mozilla, Marietje Schaake, ancien membre du Parlement européen, et Suresh Venkatasubramanian de l'université de Brown.
Les chercheurs affirment que les leçons tirées de l'ère des médias sociaux, où la recherche indépendante était souvent marginalisée, ne devraient pas être répétées.
Pour lutter contre ce risque, ils demandent à OpenAI, Meta, Anthropic, Google, Midjourney et d'autres de créer un espace juridique et technique sûr permettant aux chercheurs d'évaluer les produits d'IA sans craindre d'être poursuivis en justice ou interdits.
La lettre précise que "si les conditions d'utilisation des entreprises découragent les utilisations malveillantes, elles ne prévoient aucune exemption pour les recherches indépendantes menées de bonne foi, ce qui expose les chercheurs à un risque de suspension de leur compte, voire à des représailles judiciaires".
Les outils d'IA imposent des politiques d'utilisation strictes afin d'éviter qu'ils ne soient manipulés pour contourner leurs garde-fous. Par exemple, OpenAI a récemment marqué de son empreinte les efforts d'investigation déployés par la New York Times comme "piratage". et Meta ont menacé de retirer leurs licences en raison de litiges en matière de propriété intellectuelle.
Une étude récente sondé à mi-parcours pour révéler de nombreux cas de violation des droits d'auteur, ce qui aurait été contraire aux conditions générales de l'entreprise.
Le problème est qu'étant donné que les outils d'IA sont largement imprévisibles sous le capot, ils dépendent des personnes qui les utilisent d'une manière spécifique pour rester "sûrs".
Toutefois, ces mêmes politiques compliquent la tâche des chercheurs qui souhaitent étudier et comprendre les modèles.
La lettre, publiée sur le site web du MITLe président de l'Union européenne, M. Karel K..., présente deux requêtes :
1. "Premièrement, une sphère de sécurité juridique indemniserait les recherches indépendantes de bonne foi sur la sûreté, la sécurité et la fiabilité de l'IA, à condition qu'elles soient menées conformément à des règles bien établies de divulgation des vulnérabilités.
2. "Deuxièmement, les entreprises devraient s'engager à assurer un accès plus équitable, en faisant appel à des évaluateurs indépendants pour modérer les demandes d'évaluation des chercheurs, ce qui protégerait la recherche sur la sécurité respectueuse des règles contre les suspensions de compte contre-productives et atténuerait les préoccupations des entreprises qui choisissent leurs propres évaluateurs".
La lettre présente également une proposition politique, co-rédigée par certains signataires, qui suggère de modifier les conditions de service des entreprises pour tenir compte de la recherche universitaire et de la recherche sur la sécurité.
Cela contribue à élargir le consensus sur les risques associés à l'IA générative, notamment la partialité, la violation des droits d'auteur et la création d'images intimes non consensuelles.
En plaidant en faveur d'une "sphère de sécurité" pour une évaluation indépendante, ces experts défendent la cause de l'intérêt public, visant à créer un écosystème où les technologies de l'IA peuvent être développées et déployées de manière responsable, avec le bien-être de la société au premier plan.