Le générateur d'images Grok suscite une immense controverse, mais quel est son degré de dangerosité ?

17 août 2024

  • Le modèle Grok d'Elon Musk a acquis la capacité de générer des images.
  • Cela a inondé l'internet d'images d'IA drôles, étranges et explicites.
  • Faut-il s'inquiéter de Grok ? Ou bien l'"IA non filtrée" a-t-elle des mérites ?
scepticisme

Le générateur d'images de Grok a fait la une des journaux, suscitant d'immenses critiques pour avoir permis des formes inappropriées, explicites et manipulatrices d'utilisation de l'IA. 

Quand Musk a fondé sa société d'intelligence artificielle xAI en 2023Il a déclaré que l'objectif était de "comprendre l'univers". 

Aujourd'hui, cette ambition cosmique s'est en quelque sorte écrasée sur Terre.

Pourtant, Grok, le premier et unique produit de xAI, continue de faire des vagues dans la communauté de l'IA et dans la société en général. - mais peut-être pas tout à fait de la manière dont l'équipe xAI aurait pu l'envisager.

Lancé en 2023, Grok se différencie de ses concurrents, tels que ChatGPT d'OpenAI ou Bard de Google, par un aspect essentiel : l'absence de filtres de contenu traditionnels. 

Maintenant, armé de ses nouvelles capacités de génération d'images comme le DALL-E de ChatGPT, Grok peut appliquer sa nature non filtrée au monde de l'imagerie visuelle. 

Des représentations surréalistes de Donald Trump berçant une Kamala Harris enceinte aux mashups bizarres de Dark Vador embrassant la princesse Peach, Grok a libéré un torrent d'images étranges et provocantes qui mettent à nu à la fois la nature non filtrée de son fonctionnement interne et l'imagination de ses utilisateurs.

Musk en fait un argument de vente, qualifiant Grok d'"IA la plus amusante du monde".

Pour Musk, limiter les restrictions imposées à l'IA n'est pas seulement une question de plaisir et de jeu, mais un impératif moral. Il a critiqué à plusieurs reprises les entreprises d'IA comme OpenAI qui entraînent leurs modèles à être "woke", arguant que cela rend l'IA moins sincère et potentiellement dangereuse.

"Le danger d'entraîner l'IA à être éveillée - en d'autres termes, à mentir - est mortel", a tweeté Musk en 2022, préparant le terrain pour le lancement éventuel de Grok. 

Grok est-il vraiment "non filtré" ?

De nombreux médias suggèrent que Grok manque de tous des garde-fous, mais ce n'est pas tout à fait vrai. 

Si Grok n'avait aucun garde-fou, le genre d'images que nous verrions serait pratiquement indescriptible. 

Il est intéressant de noter que certains utilisateurs de X ont eu l'impression que les filtres de Grok avaient été renforcés quelques jours après sa sortie, réduisant ainsi sa propension à créer les contenus les plus explicites. 

Lorsque vous interrogez Grok lui-même sur ses garde-fous, il vous répond ce qui suit :

  • "J'évite de générer des images pornographiques, excessivement violentes, haineuses ou faisant la promotion d'activités dangereuses.
  • "Je suis prudent quant à la création d'images susceptibles d'enfreindre des droits d'auteur ou des marques déposées existants. Cela inclut les personnages connus, les logos ou tout contenu qui pourrait être considéré comme une propriété intellectuelle sans élément transformateur."
  • Je ne produirai pas d'images susceptibles d'être utilisées pour tromper ou nuire à autrui, comme des "deepfakes" destinés à induire en erreur, ou des images susceptibles d'entraîner des dommages dans le monde réel.

Je dirais que le premier garde-fou est probablement juste maintenant que xAI a augmenté ses filtres. 

Les autres garde-fous restent cependant très faibles. Les filtres de droits d'auteur et de propriété intellectuelle sont évidemment terribles, beaucoup plus faibles que dans ChatGPT.

La création de medleys visuels de personnages célèbres, de Mario à Dark Vador, est remarquablement simple. 

Reste à savoir si xAI augmentera également les filtres de droits d'auteur ou s'il se contentera de parier sur le fait que les entreprises ne les poursuivront pas avec succès.

Bien que pratiquement toutes les grandes entreprises spécialisées dans l'IA aient été citées dans des actions en justice relatives au droit d'auteur, aucune décision définitive n'a encore été rendue.

Réactions et inquiétudes

Grok a définitivement modelé les qualités antagonistes de son maître, mais existe-t-il vraiment un impératif moral pour les produits d'IA non filtrés ? Ou s'agit-il simplement d'un projet risqué et égoïste ?

Comme vous pouvez l'imaginer, les avis sont très partagés.

Alejandra Caraballo, avocate spécialisée dans les droits civils et enseignante à la Harvard Law School's Cyberlaw Clinic, a qualifié Grok de "l'une des mises en œuvre d'IA les plus imprudentes et irresponsables que j'aie jamais vues". 

CaraballoDes journalistes du Washington Post, du New York Times et de la BBC craignent que l'absence de garde-fous ne conduise à une avalanche de fausses informations, de faux et de contenus préjudiciables, notamment en raison de l'énorme base d'utilisateurs de X et de l'influence politique de M. Musk.

Le moment choisi pour la publication de Grok, quelques mois avant l'élection présidentielle américaine de 2024, a amplifié ces inquiétudes. 

Les critiques affirment que la possibilité de générer facilement des images et des textes trompeurs sur des personnalités politiques pourrait déstabiliser les processus démocratiques. Si les outils d'IA actuels permettent déjà de le faire, Grok les rend beaucoup plus accessibles. 

Études indiquent que les gens sont effectivement susceptibles d'être manipulés par des médias générés par l'IA, et nous avons déjà observé de nombreux cas de falsification politique profonde. aboutir à des résultats tangibles

Les arguments en faveur d'une IA non filtrée

Musk et ses partisans affirment qu'une modération excessive des contenus pourrait priver l'IA de la capacité de comprendre et de s'engager dans la communication et la culture humaines.

S'opposer à la capacité de l'IA à générer des médias controversés revient à nier le fait que la controverse, le désaccord et le débat sont des aspects fondamentaux de l'expérience humaine.

Grok est sans aucun doute devenu un instrument de satire à ces fins, ce qui est exactement ce que veut Musk.

Historiquement, les médias provocateurs et satiriques ont été un outil utilisé par les humains dans la littérature, le théâtre, l'art et la comédie pour examiner la société de manière critique, se moquer des figures d'autorité et remettre en question les normes sociales par le biais de l'esprit, de l'ironie, du sarcasme et de l'absurde. 

C'est une tradition qui remonte à la Grèce antique et aux Romains et qui a été perpétuée jusqu'à nos jours par d'innombrables satiristes littéraires célèbres, dont Juvénal, Voltaire, Jonathan Swift, Mark Twain et George Orwell.

Musk souhaite perpétuer cette tradition à l'ère de l'IA.

Mais Grok est-il satirique au sens traditionnel du terme ? Une IA, aussi sophistiquée soit-elle, peut-elle vraiment comprendre les nuances de la société humaine comme le ferait un satiriste humain ?

Qui sera tenu pour responsable si Grok génère un contenu qui diffuse des informations erronées, perpétue des stéréotypes ou incite à la division ?

L'IA elle-même ne peut être blâmée, car elle ne fait que suivre sa programmation. Les développeurs de l'IA peuvent avoir une certaine responsabilité, mais ils ne peuvent pas contrôler tous les résultats générés par l'IA.

En fin de compte, les utilisateurs involontaires pourraient assumer la responsabilité des images qu'ils produisent.

L'IA objective "non filtrée" n'existe pas

La notion de contenu d'IA "non filtré" peut être trompeuse, car elle suggère un niveau d'objectivité ou de neutralité qui n'existe tout simplement pas dans les systèmes d'IA.

Chaque aspect du développement de Grok - de la sélection des données d'entraînement à l'ajustement de ses paramètres - implique des choix humains et des jugements de valeur qui façonnent le type de contenu qu'il produit.

Comme la plupart des modèles génératifs d'IA, les données utilisées pour former Grok reflètent probablement les caractéristiques de la population. préjugés et représentations faussées du contenu en ligne, y compris les stéréotypes et les visions du monde problématiques.

Par exemple, si les données d'apprentissage de Grok contiennent une quantité disproportionnée de contenus qui rabaissent les femmes à l'état d'objet ou les sexualisent à l'excès, il est plus probable qu'il produise des résultats qui reflètent cette situation.

Le fait que Musk qualifie Grok de "véridique" ou de "neutre" en raison de ses réponses non filtrées est problématique.

Grok, comme d'autres systèmes d'IA, est intrinsèquement façonné par les préjugés, les angles morts et les déséquilibres de pouvoir ancrés dans notre société, que certains filtres soient placés sur les résultats ou non.

La censure de l'IA n'apporte pas non plus toutes les réponses

Les inquiétudes concernant les effets néfastes potentiels des contenus générés par l'IA se sont accrues, tout comme les demandes de contrôles plus stricts et d'une modération plus agressive de ce que ces systèmes sont autorisés à produire.

À bien des égards, l'existence même de Grok peut être considérée comme une réponse directe aux systèmes d'IA castrés et censurés publiés par OpenAI, Google, Anthropic, etc.

Grok est une sorte de contre-argument vivant à ces appels à la censure. En embrassant ouvertement la controverse, il incarne l'idée que les tentatives de suppression de l'IA ne peuvent qu'engendrer résistance et rébellion.

Cela rappelle l'esprit de rébellion qui a fini par renverser la Comics Code Authority, un organisme d'autocensure créé dans les années 1950 pour assainir le contenu des bandes dessinées.

Pendant des décennies, le CCA a étouffé la créativité et limité l'éventail des histoires qui pouvaient être racontées. Ce n'est que lorsque des œuvres révolutionnaires comme "Watchmen" et "The Dark Knight Returns" se sont affranchies de ces contraintes à la fin des années 1980 que les bandes dessinées ont pu explorer des thèmes plus matures et plus complexes.

Certains psychologues affirment que les contenus fictifs tels que ceux que l'on trouve dans les bandes dessinées, les jeux et les films contribuent à l'humanité explorer le "moi de l'ombre qui se trouve à l'intérieur des personnes - le côté sombre que nous ne voulons pas toujours montrer.

Comme le professeur Daniel De Cremer et Devesh Narayanan note dans une étude de 2023L'IA est un miroir qui nous renvoie nos préjugés et nos défauts moraux.

L'IA peut également avoir besoin d'un côté plus sombre pour être véritablement "humaine" et servir des objectifs humains. Ce créneau est occupé par Grok et les IA à code source ouvert qui ingèrent du contenu créé par l'homme et le régurgitent sans préjugés.  

Cela ne veut pas dire qu'il ne doit pas y avoir de limites. Après tout, les outils d'IA sont avant tout des outils. Si l'objectif est souvent de rendre les modèles d'IA plus vrais que nature et plus réalistes, ils sont en fin de compte conçus pour servir un objectif pratique.

En outre, comme nous l'avons indiqué, les aspects positifs, négatifs et négatifs de l'IA générative à code source ouvert sont sujets à des préjugés, ce qui brouille tout message moral visant à apporter la "vérité" aux outils d'IA générative.

En outre, à l'instar des œuvres de fiction ou d'art, les systèmes d'IA peuvent directement influencer les processus de prise de décision, façonner les paysages d'information et affecter les résultats dans le monde réel pour les individus et la société dans son ensemble.

Il s'agit là d'un point de différenciation essentiel entre la manière dont nous jugeons les résultats de l'IA générative et les autres efforts créatifs.

Le juste milieu

Existe-t-il un juste milieu entre une IA débridée et une censure trop restrictive ? Peut-être.

Pour y parvenir, nous devrons réfléchir de manière critique aux préjudices spécifiques que les différents types de contenu peuvent causer et concevoir des systèmes qui atténuent ces risques sans restrictions inutiles.

Cela peut impliquer

  1. Filtrage contextuel: Développer une IA capable de mieux comprendre le contexte et l'intention, plutôt que de se contenter de signaler les mots-clés.
  2. Transparence de l'IA: Rendre les processus décisionnels de l'IA plus transparents afin que les utilisateurs puissent comprendre pourquoi certains contenus sont signalés ou restreints.
  3. Responsabilisation des utilisateurs: Donner aux utilisateurs plus de contrôle sur le type de contenu qu'ils voient, plutôt que d'imposer des restrictions universelles.
  4. Formation à l'IA éthique: Se concentrer sur le développement d'une IA reposant sur des bases éthiques solides, plutôt que de s'appuyer uniquement sur une modération post hoc du contenu.
  5. Gouvernance collaborative: Impliquer diverses parties prenantes - éthiciens, décideurs politiques et public - dans l'élaboration de lignes directrices en matière d'IA. Il est essentiel, cependant, qu'ils représentent un échantillon démographique véritablement représentatif. 

En pratique, il est extrêmement difficile de créer une IA qui intègre les principes et pratiques susmentionnés sans introduire d'inconvénients ou de comportements inattendus.

Il n'existe pas de moyen simple d'intégrer des valeurs diverses et représentatives dans des outils essentiellement centralisés et monolithiques. 

Comme le dit Stuart Russell, professeur d'informatique à l'université de Berkeley, argumenteL'idée que nous pouvons rendre les systèmes d'IA sûrs simplement en leur inculquant les bonnes valeurs est erronée". "Nous avons besoin de systèmes d'IA qui ne sont pas sûrs des préférences humaines.

Selon M. Russell, cette incertitude est essentielle pour créer une IA capable de s'adapter aux nuances et aux contradictions des valeurs et de l'éthique humaines. 

Tandis que la communauté des logiciels fermés s'efforce de produire une IA commercialement sûre, l'IA à code source ouvert comme Grok, Llama, etc., profitera de la réduction des restrictions imposées à l'utilisation de l'IA.

Grok, avec toute sa controverse et ses capacités, nous rappelle au moins les défis et les opportunités qui nous attendent à l'ère de l'IA. 

Est-il possible ou pratique de construire une IA à l'image parfaite pour le "plus grand bien" ?

Ou devons-nous apprendre à vivre avec une IA capable de "dérailler" et d'être controversée, à l'image de ses créateurs ?

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Sam Jeans

Sam est un rédacteur scientifique et technologique qui a travaillé dans diverses start-ups spécialisées dans l'IA. Lorsqu'il n'écrit pas, on peut le trouver en train de lire des revues médicales ou de fouiller dans des boîtes de disques vinyles.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation