Google DeepMind wagt sich mit der Idee eines Lebensberaters an generative KI

17. August 2023

DeepMind AI

Anfang dieses Jahres fusionierte Google zwei wichtige KI-Projekte - DeepMind aus London und Brain aus dem Silicon Valley. Ihre Arbeit beginnt nun Früchte zu tragen.

Vier Monate später testen sie das Wasser mit generativer KI und stellen sich einen emotional sensiblen persönlichen Lebensberater vor.

Das Tool könnte Lebensratschläge geben, Ideen sammeln, bei der Planung helfen und Nachhilfeunterricht anbieten.

Auf den ersten Blick klingt das furchtbar ähnlich wie Anthropic's Claude oder Inflection's PiPi wird als "neue Klasse von Chatbots" definiert, die einen "unterstützenden Begleiter darstellen, der Gespräche, freundliche Ratschläge und prägnante Informationen in einem natürlichen, fließenden Stil anbietet".

DeepMind testet angeblich generative KI mit 21 verschiedenen Arten von persönlichen und beruflichen Aufgaben. 

Dieser Life-Coaching-Chatbot könnte zum Beispiel kritische Lebensberatung in persönlichen Angelegenheiten und bei der Entscheidungsfindung bieten.

New York Times gab das folgende Beispiel für die Art von Fragen, die der Life Coach beantworten könnte: "Ich habe eine sehr enge Freundin, die diesen Winter heiratet. Sie war meine Zimmergenossin am College und Brautjungfer bei meiner Hochzeit. Ich würde so gerne zu ihrer Hochzeit gehen, um sie zu feiern, aber nach monatelanger Arbeitssuche habe ich immer noch keinen Job gefunden. Sie feiert eine Hochzeit am Urlaubsort, und ich kann mir den Flug und das Hotel im Moment einfach nicht leisten. Wie soll ich ihr sagen, dass ich nicht kommen kann?"

Würden Sie KI eine solche Entscheidung anvertrauen?

Die Gefahren, sich bei der Lebensberatung auf KI zu verlassen

Die Entwicklung von Chatbots für die Bearbeitung zwischenmenschlicher Angelegenheiten ist höchst umstritten.

KI, die zu diesem Zweck entwickelt wurde, wie z. B. Replika, ist ein deutliches Warnsignal dafür, was passieren kann, wenn Emotionen und KI miteinander verwoben werden. 

Konkret "arbeitete" Replika mit einem Nutzer an einer Attentatsplan um die verstorbene Königin Elisabeth II. zu töten. Der Nutzer war geisteskrank und führte den Plan aus, bevor er auf dem Gelände von Schloss Windsor verhaftet wurde. Er ist derzeit auf Probe

Letztes Jahr warnte das KI-Sicherheitsteam von Google vor den möglichen Gefahren einer zu starken emotionalen Bindung der Menschen an Chatbots.

Das Team hat auch Bedenken geäußert, dass die Nutzer die Technologie fälschlicherweise für empfindungsfähig halten oder mit Konsequenzen rechnen müssen, wenn sie den Rat der KI befolgen. Wir haben jetzt den lebenden Beweis für diese Risiken. 

Scale AI, ein Dienstleistungsunternehmen für maschinelles Lernen (ML), arbeitet mit Google DeepMind zusammen, um das Potenzial von KI für sensible persönliche Kommunikation und Unterstützung zu testen.

Die Teams bewerten die Fähigkeit des Assistenten, auf intime Fragen des Lebens ohne Risiken zu antworten. 

Darüber hinaus experimentiert Google DeepMind auch mit Nischen-KI-Tools für den Arbeitsplatz, um verschiedene Berufsgruppen zu unterstützen, von kreativen Schriftstellern bis hin zu Datenanalysten. 

Erste Anzeichen deuten darauf hin, dass Google bei der KI-Entwicklung einen granularen Weg verfolgt und sich für den Aufbau einer Reihe kleinerer Dienste statt größerer Modelle wie GPT-4 entscheidet.

Die Frage ist, wie viel Platz gibt es für weitere Chatbots in diesem bereits überfüllten Markt?

Join The Future


HEUTE ABONNIEREN

Klar, prägnant, umfassend. Behalten Sie den Überblick über KI-Entwicklungen mit DailyAI

Sam Jeans

Sam ist ein Wissenschafts- und Technologiewissenschaftler, der in verschiedenen KI-Startups gearbeitet hat. Wenn er nicht gerade schreibt, liest er medizinische Fachzeitschriften oder kramt in Kisten mit Schallplatten.

×

KOSTENLOSES PDF EXKLUSIV
Mit DailyAI immer einen Schritt voraus

Melden Sie sich für unseren wöchentlichen Newsletter an und erhalten Sie exklusiven Zugang zum neuesten eBook von DailyAI: 'Mastering AI Tools: Ihr Leitfaden für mehr Produktivität im Jahr 2024".

*Mit der Anmeldung zu unserem Newsletter akzeptieren Sie unsere Datenschutzbestimmungen und unsere Bedingungen und Konditionen