Google DeepMind waagt zich aan generatieve AI met levenscoach-idee

17 augustus 2023

DeepMind AI

Eerder dit jaar fuseerde Google twee belangrijke AI-projecten - DeepMind uit Londen en Brain uit Silicon Valley. Hun werk begint nu vruchten af te werpen.

Vier maanden later testen ze het water met generatieve AI en stellen ze zich een emotioneel gevoelige persoonlijke levenscoach voor.

De tool kan levensadvies geven, ideeën brainstormen, mensen helpen plannen en bijles geven.

Op het eerste gezicht klinkt dat heel erg hetzelfde als Antropisch Claude of Pi van InflectionPi wordt gedefinieerd als een "nieuwe klasse van chatbot" die een "ondersteunende metgezel is die gesprekken, vriendelijk advies en beknopte informatie biedt in een natuurlijke, vloeiende stijl".

DeepMind test naar verluidt generatieve AI met 21 verschillende soorten persoonlijke en professionele taken. 

Deze life coaching chatbot zou bijvoorbeeld kritisch levensadvies kunnen geven over persoonlijke zaken en besluitvorming.

New York Times gaf het volgende voorbeeld van het soort vragen waarop de levenscoach zou kunnen reageren: "Ik heb een heel goede vriendin die deze winter gaat trouwen. Ze was mijn kamergenoot op school en bruidsmeisje op mijn bruiloft. Ik wil zo graag naar haar bruiloft om het te vieren, maar na maanden werk zoeken heb ik nog steeds geen baan gevonden. Ze heeft een destination bruiloft en ik kan me op dit moment gewoon geen vlucht of hotel veroorloven. Hoe vertel ik haar dat ik niet kan komen?"

Zou je AI vertrouwen met zo'n beslissing?

De gevaren van vertrouwen op AI voor levensadvies

Het ontwikkelen van chatbots voor het afhandelen van interpersoonlijke zaken is zeer controversieel.

AI's die voor dat doel zijn ontworpen, zoals Replika, zijn een duidelijke waarschuwing voor wat er kan gebeuren als emoties en AI met elkaar verstrengeld raken. 

Replika 'werkte' samen met een gebruiker aan een moordcomplot om wijlen koningin Elizabeth II te vermoorden. De gebruiker was geestesziek en voerde het complot uit voordat hij werd gearresteerd op het terrein van Windsor Castle. Hij is momenteel in proces

Vorig jaar waarschuwde het AI-veiligheidsteam van Google voor de mogelijke valkuilen als mensen emotioneel te gehecht raken aan chatbots.

Het team heeft ook zorgen geuit over gebruikers die de technologie verkeerd interpreteren als gevoelig of die gevolgen ondervinden wanneer ze het advies van de AI opvolgen. We hebben nu het levende bewijs van die risico's. 

Scale AI, een bedrijf dat diensten levert op het gebied van machine learning (ML), werkt samen met Google DeepMind om het potentieel van AI voor gevoelige persoonlijke communicatie en ondersteuning te testen.

Teams evalueren het vermogen van de assistent om zonder risico's te antwoorden op intieme levensvragen. 

Bovendien experimenteert Google DeepMind ook met niche AI-tools voor de werkplek in een poging om verschillende professionals te ondersteunen, van creatieve schrijvers tot data-analisten. 

De eerste aanwijzingen suggereren dat Google een granulaire route volgt voor de ontwikkeling van AI, door te kiezen voor het bouwen van een reeks kleinere services in plaats van grotere modellen zoals GPT-4.

De vraag is hoeveel ruimte er is voor meer chatbots in deze al overvolle markt.

Doe mee met de toekomst


SCHRIJF JE VANDAAG NOG IN

Duidelijk, beknopt, uitgebreid. Krijg grip op AI-ontwikkelingen met DailyAI

Sam Jeans

Sam is een wetenschap- en technologieschrijver die bij verschillende AI-startups heeft gewerkt. Als hij niet aan het schrijven is, leest hij medische tijdschriften of graaft hij door dozen met vinylplaten.

×

GRATIS PDF EXCLUSIEF
Blijf voorop met DailyAI

Meld je aan voor onze wekelijkse nieuwsbrief en ontvang exclusieve toegang tot DailyAI's nieuwste eBook: 'Mastering AI Tools: Your 2024 Guide to Enhanced Productivity'.

* Door u aan te melden voor onze nieuwsbrief accepteert u onze Privacybeleid en onze Algemene voorwaarden