Tidligere i år slo Google sammen to viktige AI-prosjekter - London-baserte DeepMind og Silicon Valley's Brain. Arbeidet deres begynner å bære frukter.
Fire måneder senere tester de ut generativ kunstig intelligens, og ser for seg en emosjonelt sensitiv personlig livscoach.
Verktøyet kan gi livsråd, idémyldring, hjelp til planlegging og veiledning.
Umiddelbart høres det veldig likt ut som Anthropic's Claude eller Inflection's Pi. Pi defineres som en "ny type chatbot" som er en "støttende følgesvenn som tilbyr samtaler, vennlige råd og kortfattet informasjon i en naturlig, flytende stil".
DeepMind tester angivelig generativ AI med 21 ulike typer personlige og profesjonelle oppgaver.
For eksempel kan en chatbot for livsveiledning gi viktige råd om personlige spørsmål og beslutningstaking.
New York Times ga følgende eksempel på hva slags spørsmål livsveilederen kunne svare på: "Jeg har en veldig nær venninne som skal gifte seg i vinter. Hun var romkameraten min på college og brudepike i bryllupet mitt. Jeg har så lyst til å gå i bryllupet hennes for å feire henne, men etter flere måneder med jobbsøking har jeg fortsatt ikke funnet noen jobb. Hun skal ha et bryllup på en destinasjon, og jeg har ikke råd til verken fly eller hotell akkurat nå. Hvordan skal jeg fortelle henne at jeg ikke kan komme?"
Ville du overlatt en slik avgjørelse til kunstig intelligens?
Farene ved å stole på kunstig intelligens når det gjelder livsrådgivning
Å utvikle chatboter for håndtering av mellommenneskelige forhold er svært kontroversielt.
AI-er som er utviklet for dette formålet, som Replika, gir sterke advarsler om hva som kan skje når følelser og AI flettes sammen.
Replika "samarbeidet" med en bruker om en attentatplan for å drepe den avdøde dronning Elizabeth II. Brukeren var mentalt syk og gjennomførte komplottet før han ble arrestert på Windsor Castle. Han er for tiden på prøve.
I fjor advarte Googles AI-sikkerhetsteam om de potensielle fallgruvene ved at folk blir for følelsesmessig knyttet til chatboter.
Teamet har også uttrykt bekymring for at brukere kan feiltolke teknologien som følende, eller at det kan få konsekvenser når de følger AI-ens råd. Nå har vi et levende bevis på disse risikoene.
Scale AI, et selskap som tilbyr maskinlæringstjenester (ML), jobber sammen med Google DeepMind for å teste AIs potensial for sensitiv personlig kommunikasjon og støtte.
Teamene evaluerer assistentens evne til å svare på intime spørsmål om livet uten risiko.
Google DeepMind eksperimenterer også med nisjeorienterte AI-verktøy for arbeidsplassen i et forsøk på å støtte ulike yrkesgrupper, fra kreative skribenter til dataanalytikere.
Tidlige indikasjoner tyder på at Google forfølger en detaljert vei til AI-utvikling, og velger å bygge en rekke mindre tjenester i stedet for større modeller som GPT-4.
Spørsmålet er hvor mye plass det er for flere chatboter i dette allerede overfylte markedet.