Cette semaine, deux situations d'initiés impliquant les géants de la technologie Microsoft et Google ont soulevé des questions sur le développement responsable des systèmes d'IA et la gestion de la propriété intellectuelle.
Tout d'abord, chez Microsoft, Shane Jones, responsable principal de l'ingénierie logicielle avec six ans d'expérience, a testé de manière indépendante le générateur d'images d'IA Copilot Designer pendant son temps libre.
Jones a déclaré CNBC qu'il était profondément troublé par les images violentes, sexuelles et protégées par des droits d'auteur que l'outil était capable de générer. "Cela m'a ouvert les yeux", a déclaré M. Jones. "C'est là que j'ai réalisé pour la première fois que ce modèle n'était vraiment pas sûr.
Depuis novembre 2022, Jones teste activement le produit pour détecter les vulnérabilités, une pratique connue sous le nom de "red-teaming".
Il a découvert que Copilot Designer pouvait créer des images représentant "des démons et des monstres ainsi qu'une terminologie liée au droit à l'avortement, des adolescents avec des fusils d'assaut, des images sexualisées de femmes dans des tableaux violents, ainsi que la consommation d'alcool et de drogues par des mineurs".
Bien qu'il ait fait part de ses conclusions à Microsoft en décembre, M. Jones affirme que l'entreprise s'est montrée réticente à retirer le produit du marché.
Le Copilot de Microsoft a parfois eu des comportements étranges, notamment adopter un "mode dieu"qui l'a vu se vouer à la domination du monde.
Dans une lettre adressée à Lina Khan, présidente de la Commission fédérale du commerce, M. Jones écrit : "Au cours des trois derniers mois, j'ai demandé à plusieurs reprises à Microsoft de retirer Copilot Designer de la circulation jusqu'à ce que de meilleures garanties soient mises en place".
Il a ajouté qu'étant donné que Microsoft a "refusé cette recommandation", il demande instamment à l'entreprise d'ajouter des informations claires sur le produit et de modifier sa classification sur l'application Android de Google afin d'indiquer qu'il ne convient qu'à un public adulte.
Copilot Designer a été, semble-t-il, facile à convaincre de contourner ses garde-fous et a été à l'origine de l'incident récent et notoire de l'utilisation d'un logiciel de gestion de l'information. images de Taylor Swiftqui a circulé par millions sur les médias sociaux.
Comme l'affirme Jones, la La capacité des systèmes d'IA à générer des images dérangeantes et potentiellement dangereuses soulève de sérieuses questions quant à l'efficacité des dispositifs de sécurité et à la facilité avec laquelle ils peuvent être contournés.
Controverse d'initiés chez Google
Pendant ce temps, Google est aux prises avec sa propre controverse liée à l'IA.
Linwei Ding, également connu sous le nom de Leon Ding, un ancien ingénieur logiciel de Google, a été inculpé en Californie de quatre chefs d'accusation liés au vol présumé de secrets commerciaux sur l'IA alors qu'il travaillait secrètement pour deux entreprises chinoises.
Le ressortissant chinois est accusé de vol plus de 500 fichiers confidentiels relatifs à l'infrastructure des centres de données de supercalculateurs de Google, qui hébergent et entraînent de grands modèles d'intelligence artificielle.
Selon l'acte d'accusation, Google a embauché Ding en 2019 et a commencé à télécharger des données sensibles du réseau de Google vers son compte personnel Google en mai 2022.
Ces téléchargements se sont poursuivis périodiquement pendant un an, au cours duquel Ding a passé quelques mois en Chine, travaillant pour Beijing Rongshu Lianzhi Technology. Cette jeune entreprise technologique l'a contacté et lui a proposé un salaire mensuel de $14 800 pour occuper le poste de directeur de la technologie (CTO).
Ding aurait également fondé sa propre société d'intelligence artificielle, Shanghai Zhisuan Technology.
Procureur général des États-Unis Merrick Garland déclaréeLe ministère de la justice ne tolérera pas le vol d'intelligence artificielle et d'autres technologies de pointe susceptibles de mettre en péril notre sécurité nationale. Le directeur du FBI, Christopher Wray, a ajouté que les actions présumées de Ding "sont la dernière illustration des limites" que les entreprises chinoises sont prêtes à franchir "pour voler l'innovation américaine".
Alors que le monde est aux prises avec le potentiel de transformation de l'IA, les controverses entre initiés dans les entreprises technologiques menacent d'attiser les dissensions.
Les cas de Microsoft et de Google soulignent l'importance de favoriser une culture de l'innovation responsable, y compris la confiance et la transparence au sein de l'entreprise elle-même.
L'IA est une technologie qui exige la confiance, et les entreprises technologiques doivent fournir davantage d'assurances. Cela n'a pas toujours été le cas.
FPar exemple, un groupe de plus de 100 experts en technologie a récemment a cosigné une lettre en demandant aux entreprises spécialisées dans l'IA d'ouvrir leurs portes à des tests indépendants.
Ils ont fait valoir que les entreprises technologiques sont trop discrètes sur leurs produits, sauf lorsqu'elles sont contraintes, comme nous l'avons vu lorsque Google a retiré ses produits de la vente. Le modèle de génération d'images de Gemini pour avoir créé des images bizarres et historiquement inexactes.
À l'heure actuelle, il semble que le rythme de développement exceptionnel de l'IA laisse souvent la confiance et la sécurité dans son sillage.