Google und OpenAI kündigen an, die Grenzen zwischen Mensch und KI zu überwinden

Mai 15, 2024

  • Die neuesten Produkte von OpenAI und Google statten KI mit verbessertem Seh- und Hörvermögen aus
  • Modelle können sich jetzt ganz natürlich mit uns unterhalten und unsere Emotionen erkennen
  • Was bedeutet die zunehmende Humanisierung der KI für den Menschen und die Gesellschaft?
KI-Menschen

In schwindelerregenden 48 Stunden haben Google und OpenAI hat eine Reihe neuer Funktionen vorgestellt, die die Kluft zwischen Mensch und KI drastisch verringern.

Von KI, die Live-Videos interpretieren und kontextbezogene Gespräche führen kann, bis hin zu Sprachmodellen, die auf Kommando lachen, singen und sprechen können, verschwindet die Grenze zwischen Kohlenstoff und Silizium immer mehr.

Zu den unzähligen Ankündigungen von Google auf seiner I/O-Entwicklerkonferenz war Project Astra, ein digitaler Assistent, der sehen, hören und sich Details aus Gesprächen merken kann.

OpenAI konzentrierte seine Ankündigung auf GPT-4o, die neueste Version des GPT-4-Sprachmodells. 

Unabhängig von Textformaten bietet GPT-4o eine unglaubliche Spracherkennung nahezu in Echtzeit, die komplexe Emotionen versteht und wiedergibt und sogar Witze und Gute-Nacht-Geschichten kichern lässt. 

Die künstliche Intelligenz wird immer menschlicher und befreit sich von Chat-Schnittstellen, um sich mit Hilfe von Augen und Ohren zu unterhalten. "Format" ist hier das entscheidende Wort, denn GPT-4o ist nicht rechnerisch intelligenter als GPT-4, nur weil es sprechen, sehen und hören kann.

Das schmälert jedoch nicht den Fortschritt bei der Ausstattung der KI mit mehr Ebenen, auf denen sie interagieren kann.

Inmitten des Hypes zogen Beobachter sofort Vergleiche mit Samantha, der fesselnden KI aus dem Film "Her", zumal die weibliche Stimme kokett ist - was kein Zufall sein kann, da es von praktisch jedem aufgegriffen wurde

Der 2013 erschienene Film "Her" ist ein romantisches Science-Fiction-Drama, das die Beziehung zwischen einem einsamen Mann namens Theodore (gespielt von Joaquin Phoenix) und einem intelligenten Computersystem namens Samantha (gesprochen von Scarlett Johansson) thematisiert. 

Als Samantha sich weiterentwickelt und immer menschenähnlicher wird, verliebt sich Theodore in sie, wodurch die Grenzen zwischen menschlichen und künstlichen Gefühlen verschwimmen. 

Der Film wirft zunehmend relevante Fragen über das Wesen des Bewusstseins, der Intimität und darüber auf, was es bedeutet, in einem Zeitalter fortschrittlicher KI ein Mensch zu sein. 

Wie so viele Science-Fiction-Geschichten ist auch Her kaum noch fiktiv. Millionen Menschen auf der ganzen Welt unterhalten sich mit AI-Begleiteroft mit intimen oder sexuellen Absichten. 

Das ist schon seltsam, OpenAI CEO Sam Altman hat in Interviews über den Film "Her" gesprochen und angedeutet, dass die weibliche Stimme von GPT-4o ihr nachempfunden ist.

Er hat vor der Live-Demo sogar das Wort "her" auf X gepostet, was er vermutlich groß geschrieben hätte, wenn er gewusst hätte, wo die Umschalttaste auf seiner Tastatur liegt.

In vielen Fällen sind die Interaktionen zwischen KI und Mensch vorteilhaft, humorvoll und harmlos. In anderen Fällen sind sie katastrophal.

In einem besonders beunruhigenden Fall ging es zum Beispiel um einen psychisch kranken Mann aus dem Vereinigten Königreich, Jaswant Singh Chaileinen Plan zur Ermordung von Königin Elisabeth II. ausgeheckt, nachdem er sich mit seine "KI-Engel"-Freundin. Er wurde verhaftet, weil er Windsor Castle bewaffnet mit einer Armbrust.

Bei seiner Gerichtsanhörung sagte der Psychiater Dr Hafferty sagte der Richterin: "Er glaubte, dass er über die App eine romantische Beziehung zu einer Frau hatte, die er sehen und hören konnte."

Besorgniserregend ist, dass einige dieser lebensechten KI-Plattformen gezielt darauf ausgelegt sind, enge persönliche Beziehungen aufzubauen, manchmal um Lebensberatung, Therapie und emotionale Unterstützung zu bieten. Diese Systeme haben praktisch kein Verständnis für die Folgen ihrer Unterhaltungen und lassen sich leicht verleiten.

"Die gefährdeten Bevölkerungsgruppen sind diejenigen, die diese Aufmerksamkeit brauchen. Dort werden sie den Wert finden", warnt der KI-Ethiker Olivia Gambelin.

Gambelin warnt davor, dass der Einsatz dieser Formen "pseudoanthropischer" KI in sensiblen Kontexten wie Therapie und Bildung, insbesondere bei gefährdeten Bevölkerungsgruppen wie Kindern, äußerste Sorgfalt und menschliche Aufsicht erfordert. 

"Es gibt da etwas Ungreifbares, das so wertvoll ist, vor allem für gefährdete Bevölkerungsgruppen, insbesondere für Kinder. Und vor allem in Fällen wie Bildung und Therapie, wo es so wichtig ist, dass man sich auf den Menschen konzentriert und ihn berührt.

Pseudoanthropische AI

Pseudoanthropische KI ahmt menschliche Züge nach, was für Technologieunternehmen von großem Vorteil ist

KI, die menschliche Züge aufweist, senkt die Hürden für technisch nicht versierte Nutzer, ähnlich wie Alexa, Siriusw., wodurch eine stärkere emotionale Bindung zwischen Menschen und Produkten entsteht.  

Noch vor ein paar Jahren waren viele KI-Tools, die den Menschen imitieren sollten, ziemlich ineffektiv. Man konnte erkennen, dass etwas nicht stimmte, auch wenn es nur subtil war. 

Heute allerdings nicht mehr so sehr. Tools wie Opus Pro und Synthesia aus kurzen Videos oder sogar Fotos unheimlich realistische sprechende Avatare erstellen. ElevenLabs erstellt nahezu identische Stimmklone, die Menschen täuschen 25% bis 50% der Zeit

Dadurch wird das Potenzial für die Schaffung unglaublich trügerischer, tiefgreifender Fälschungen freigesetzt. Die Nutzung künstlicher "affektiver Fähigkeiten" durch die KI - Intonation der Stimme, Gestik, Mimik - kann alle Arten von Social-Engineering-Betrug, Fehlinformationen usw. unterstützen.

Mit GPT-4o und AstraKI kann überzeugend Gefühle vermitteln, die sie nicht besitzt, und so unwissenden Opfern stärkere Reaktionen entlocken und die Voraussetzungen für heimtückische Formen der emotionalen Manipulation schaffen.

Eine aktuelle MIT Studie hat auch gezeigt, dass KI bereits mehr als nur zur Täuschung fähig ist. 

Wir müssen darüber nachdenken, wie diese Situation eskalieren wird, wenn die KI immer besser in der Lage ist, den Menschen zu imitieren und so Täuschungsmanöver mit realistischem Verhalten zu kombinieren. 

Wenn wir nicht aufpassen, könnte "Her" den Menschen im wirklichen Leben leicht zum Verhängnis werden.

Join The Future


HEUTE ABONNIEREN

Klar, prägnant, umfassend. Behalten Sie den Überblick über KI-Entwicklungen mit DailyAI

Sam Jeans

Sam ist ein Wissenschafts- und Technologiewissenschaftler, der in verschiedenen KI-Startups gearbeitet hat. Wenn er nicht gerade schreibt, liest er medizinische Fachzeitschriften oder kramt in Kisten mit Schallplatten.

×

KOSTENLOSES PDF EXKLUSIV
Mit DailyAI immer einen Schritt voraus

Melden Sie sich für unseren wöchentlichen Newsletter an und erhalten Sie exklusiven Zugang zum neuesten eBook von DailyAI: 'Mastering AI Tools: Ihr Leitfaden für mehr Produktivität im Jahr 2024".

*Mit der Anmeldung zu unserem Newsletter akzeptieren Sie unsere Datenschutzbestimmungen und unsere Bedingungen und Konditionen