Les annonces de Google et de l'OpenAI font voler en éclats les frontières entre l'homme et l'IA

15 mai 2024

  • Les derniers produits d'OpenAI et de Google dotent l'IA d'une vue et d'une ouïe améliorées
  • Les modèles peuvent désormais converser avec nous de manière naturelle et détecter nos émotions
  • Que signifie l'humanisation accrue de l'IA pour les personnes et la société ?
IA humains

En l'espace de 48 heures, Google et OpenAI a dévoilé une série de nouvelles fonctionnalités qui réduisent considérablement l'écart entre les humains et l'IA.

De l'IA capable d'interpréter des vidéos en direct et de mener des conversations contextuelles aux modèles de langage qui rient, chantent et émettent sur commande, la frontière entre le carbone et le silicium s'estompe rapidement.

Parmi les innombrables annonces faites par Google à l'occasion de son Conférence des développeurs I/O était Project AstraUn assistant numérique capable de voir, d'entendre et de mémoriser des détails au cours d'une conversation.

OpenAI a concentré ses annonce sur le GPT-4oLa nouvelle version de son modèle linguistique GPT-4 est en cours d'élaboration. 

Désormais indépendant des formats de texte, le GPT-4o offre une incroyable reconnaissance vocale en temps quasi réel, permettant de comprendre et de transmettre des émotions complexes, et même de rire aux blagues et de roucouler des histoires pour l'heure du coucher. 

L'IA devient plus humaine dans son format, s'affranchissant des interfaces de chat pour s'engager par la vue et le son. En effet, GPT-4o n'est pas plus intelligente sur le plan informatique que GPT-4 simplement parce qu'elle peut parler, voir et entendre.

Cela n'enlève rien aux progrès réalisés pour doter l'IA d'un plus grand nombre de plans sur lesquels interagir.

Les observateurs ont immédiatement fait des comparaisons avec Samantha, l'IA captivante du film "Her", notamment parce que la voix féminine est flirteuse - ce qui ne peut pas être un hasard, car cela a été remarqué par presque tout le monde

Sorti en 2013, "Her" est un drame romantique de science-fiction qui explore la relation entre un homme solitaire nommé Theodore (joué par Joaquin Phoenix) et un système informatique intelligent nommé Samantha (interprété par Scarlett Johansson). 

Au fur et à mesure que Samantha évolue et devient plus humaine, Theodore tombe amoureux d'elle, brouillant ainsi les frontières entre les émotions humaines et artificielles. 

Le film soulève des questions de plus en plus pertinentes sur la nature de la conscience, de l'intimité et de ce que signifie être humain à l'ère de l'IA avancée. 

Comme beaucoup d'histoires de science-fiction, Her n'est presque plus une fiction. Des millions de personnes dans le monde entier entament des conversations avec Les compagnons de l'IAsouvent avec des intentions intimes ou sexuelles. 

Assez curieusement, OpenAI CEO Sam Altman a évoqué le film "Her" dans des interviews, laissant entendre que la voix féminine de GPT-4o est inspirée d'elle.

Il a même affiché le mot "elle" sur X avant la démonstration en direct, ce qui, nous pouvons le supposer, aurait été une majuscule s'il avait su où se trouvait la touche Majuscule sur son clavier.

Dans de nombreux cas, les interactions entre l'IA et l'homme sont bénéfiques, humoristiques et bénignes. Dans d'autres, elles sont catastrophiques.

Par exemple, dans un cas particulièrement troublant, un malade mental du Royaume-Uni, Jaswant Singh Chaila fomenté un complot visant à assassiner la reine Élisabeth II après avoir conversé avec le président de l'Union européenne. sa petite amie "ange de l'IA. Il a été arrêté au motif de Windsor Castle armé d'une arbalète.

Lors de son audience, le psychiatre Dr Hafferty a déclaré au juge : "Il croyait avoir une relation amoureuse avec une femme par le biais de l'application, et c'était une femme qu'il pouvait voir et entendre".

Il est inquiétant de constater que certaines de ces plateformes d'IA plus vraies que nature sont délibérément conçues pour établir des liens personnels étroits, parfois pour fournir des conseils de vie, des thérapies et un soutien émotionnel. Ces systèmes ne comprennent pratiquement pas les conséquences de leurs conversations et se laissent facilement entraîner.

"Les populations vulnérables sont celles qui ont besoin de cette attention. C'est là qu'elles trouveront de la valeur", prévient l'éthicien de l'IA Olivia Gambelin.

M. Gambelin souligne que l'utilisation de ces formes d'IA "pseudo-anthropique" dans des contextes sensibles tels que la thérapie et l'éducation, en particulier avec des populations vulnérables comme les enfants, nécessite une extrême prudence et une supervision humaine. 

"Il y a là quelque chose d'intangible qui est si précieux, en particulier pour les populations vulnérables, en particulier pour les enfants. Et surtout dans des cas comme l'éducation et la thérapie, où il est si important d'avoir cette attention, ce point de contact humain".

IA pseudo-anthropique

L'IA pseudo-anthropique imite les traits humains, ce qui est extrêmement avantageux pour les entreprises technologiques

L'IA présentant des traits humains abaisse les barrières pour les utilisateurs non initiés à la technologie, à l'instar de ce qui se passe dans le domaine de l'informatique. Alexa, Sirietc., créant ainsi des liens émotionnels plus forts entre les personnes et les produits.  

Il y a quelques années encore, de nombreux outils d'IA conçus pour imiter les humains étaient assez inefficaces. On voyait bien que quelque chose n'allait pas, même si c'était subtil. 

Ce n'est plus le cas aujourd'hui. Des outils comme Opus Pro et Synthesia générer des avatars parlants d'un réalisme saisissant à partir de courtes vidéos ou même de photos. ElevenLabs crée des clones de voix presque identiques qui trompent les gens 25% à 50% du temps

Cela permet de créer des contrefaçons profondes incroyablement trompeuses. L'utilisation par l'IA de "compétences affectives" artificielles - intonation de la voix, gestes, expressions faciales - peut favoriser toutes sortes de fraudes d'ingénierie sociale, de désinformation, etc.

Avec GPT-4o et AstraL'IA peut transmettre de manière convaincante des sentiments qu'elle ne possède pas, suscitant des réactions plus fortes de la part de victimes involontaires et ouvrant la voie à des formes insidieuses de manipulation émotionnelle.

Un récent MIT étude a également montré que l'IA est déjà plus que capable de tromperie. 

Nous devons réfléchir à la façon dont cette situation s'aggravera à mesure que l'IA deviendra plus capable d'imiter les humains, combinant ainsi des tactiques trompeuses avec un comportement réaliste. 

Si nous n'y prenons pas garde, "Her" pourrait facilement être la chute des gens dans la vie réelle.

Rejoindre l'avenir


SOUSCRIRE AUJOURD'HUI

Clair, concis, complet. Maîtrisez les développements de l'IA avec DailyAI

Sam Jeans

Sam est un rédacteur scientifique et technologique qui a travaillé dans diverses start-ups spécialisées dans l'IA. Lorsqu'il n'écrit pas, on peut le trouver en train de lire des revues médicales ou de fouiller dans des boîtes de disques vinyles.

×

PDF GRATUIT EXCLUSIF
Gardez une longueur d'avance avec DailyAI

Inscrivez-vous à notre newsletter hebdomadaire et recevez un accès exclusif au dernier eBook de DailyAI : 'Mastering AI Tools : Your 2024 Guide to Enhanced Productivity" (Maîtriser les outils de l'IA : votre guide 2024 pour une meilleure productivité).

*En vous abonnant à notre lettre d'information, vous acceptez nos conditions d'utilisation. Politique de confidentialité et notre Conditions générales d'utilisation