Eerder dit jaar fuseerde Google twee belangrijke AI-projecten - DeepMind uit Londen en Brain uit Silicon Valley. Hun werk begint nu vruchten af te werpen.
Vier maanden later testen ze het water met generatieve AI en stellen ze zich een emotioneel gevoelige persoonlijke levenscoach voor.
De tool kan levensadvies geven, ideeën brainstormen, mensen helpen plannen en bijles geven.
Op het eerste gezicht klinkt dat heel erg hetzelfde als Antropisch Claude of Pi van Inflection. Pi wordt gedefinieerd als een "nieuwe klasse van chatbot" die een "ondersteunende metgezel is die gesprekken, vriendelijk advies en beknopte informatie biedt in een natuurlijke, vloeiende stijl".
DeepMind test naar verluidt generatieve AI met 21 verschillende soorten persoonlijke en professionele taken.
Deze life coaching chatbot zou bijvoorbeeld kritisch levensadvies kunnen geven over persoonlijke zaken en besluitvorming.
New York Times gaf het volgende voorbeeld van het soort vragen waarop de levenscoach zou kunnen reageren: "Ik heb een heel goede vriendin die deze winter gaat trouwen. Ze was mijn kamergenoot op school en bruidsmeisje op mijn bruiloft. Ik wil zo graag naar haar bruiloft om het te vieren, maar na maanden werk zoeken heb ik nog steeds geen baan gevonden. Ze heeft een destination bruiloft en ik kan me op dit moment gewoon geen vlucht of hotel veroorloven. Hoe vertel ik haar dat ik niet kan komen?"
Zou je AI vertrouwen met zo'n beslissing?
De gevaren van vertrouwen op AI voor levensadvies
Het ontwikkelen van chatbots voor het afhandelen van interpersoonlijke zaken is zeer controversieel.
AI's die voor dat doel zijn ontworpen, zoals Replika, zijn een duidelijke waarschuwing voor wat er kan gebeuren als emoties en AI met elkaar verstrengeld raken.
Replika 'werkte' samen met een gebruiker aan een moordcomplot om wijlen koningin Elizabeth II te vermoorden. De gebruiker was geestesziek en voerde het complot uit voordat hij werd gearresteerd op het terrein van Windsor Castle. Hij is momenteel in proces.
Vorig jaar waarschuwde het AI-veiligheidsteam van Google voor de mogelijke valkuilen als mensen emotioneel te gehecht raken aan chatbots.
Het team heeft ook zorgen geuit over gebruikers die de technologie verkeerd interpreteren als gevoelig of die gevolgen ondervinden wanneer ze het advies van de AI opvolgen. We hebben nu het levende bewijs van die risico's.
Scale AI, een bedrijf dat diensten levert op het gebied van machine learning (ML), werkt samen met Google DeepMind om het potentieel van AI voor gevoelige persoonlijke communicatie en ondersteuning te testen.
Teams evalueren het vermogen van de assistent om zonder risico's te antwoorden op intieme levensvragen.
Bovendien experimenteert Google DeepMind ook met niche AI-tools voor de werkplek in een poging om verschillende professionals te ondersteunen, van creatieve schrijvers tot data-analisten.
De eerste aanwijzingen suggereren dat Google een granulaire route volgt voor de ontwikkeling van AI, door te kiezen voor het bouwen van een reeks kleinere services in plaats van grotere modellen zoals GPT-4.
De vraag is hoeveel ruimte er is voor meer chatbots in deze al overvolle markt.