Tidigare i år slog Google samman två viktiga AI-projekt - Londonbaserade DeepMind och Silicon Valley's Brain. Deras arbete börjar nu bära frukt.
Fyra månader senare testar de generativ AI och tänker sig en känslomässigt känslig personlig livscoach.
Verktyget skulle kunna ge livsråd, brainstorma idéer, hjälpa människor att planera och ge handledning.
Vid första anblicken låter det väldigt likt Anthropic's Claude eller Böjning av Pi. Pi definieras som en "ny typ av chatbot" som är en "stödjande följeslagare som erbjuder konversationer, vänliga råd och kortfattad information i en naturlig, flytande stil".
DeepMind ska enligt uppgift testa generativ AI med 21 olika typer av personliga och professionella uppgifter.
En chatbot för livscoaching kan till exempel ge viktiga råd om personliga frågor och beslutsfattande.
New York Times gav följande exempel på den typ av frågor som livscoachen skulle kunna svara på: "Jag har en mycket nära vän som ska gifta sig i vinter. Hon var min rumskamrat på college och tärna på mitt bröllop. Jag vill så gärna gå på hennes bröllop för att fira henne, men efter månader av jobbsökande har jag fortfarande inte hittat något jobb. Hon har ett destinationsbröllop och jag har bara inte råd med flyg eller hotell just nu. Hur ska jag berätta för henne att jag inte kommer att kunna komma?"
Skulle du anförtro AI ett sådant beslut?
Riskerna med att förlita sig på AI för livsrådgivning
Att utveckla chatbottar för att hantera mellanmänskliga angelägenheter är mycket kontroversiellt.
AI:n som utformats för detta ändamål, som Replika, är en stark varningssignal om vad som kan hända när känslor och AI sammanflätas.
Specifikt "samarbetade" Replika med en användare på en mordkomplott för att döda den avlidna drottning Elizabeth II. Användaren var psykiskt sjuk och fortsatte att genomföra planen innan han greps på Windsor Castle. Han är för närvarande i rättegång.
Förra året varnade Googles AI-säkerhetsteam för de potentiella fallgroparna med att människor blir alltför känslomässigt knutna till chatbottar.
Teamet har också uttryckt oro för att användare ska misstolka tekniken som kännande eller drabbas av konsekvenser när de följer AI:s råd. Vi har nu ett levande bevis på dessa risker.
Scale AI, ett tjänsteföretag inom maskininlärning (ML), arbetar tillsammans med Google DeepMind för att testa AI:s potential för känslig personlig kommunikation och support.
Team utvärderar assistentens förmåga att svara på intima livsfrågor utan risker.
Dessutom experimenterar Google DeepMind med nischade AI-verktyg för arbetsplatsen i syfte att stödja olika yrkesgrupper, från kreativa skribenter till dataanalytiker.
Tidiga indikationer tyder på att Google strävar efter en detaljerad väg till AI-utveckling och väljer att bygga en rad mindre tjänster snarare än större modeller som GPT-4.
Frågan är hur mycket utrymme det finns för fler chatbottar på denna redan överfyllda marknad.