All'inizio di quest'anno, Google ha unito due progetti chiave di intelligenza artificiale: DeepMind di Londra e Brain della Silicon Valley. Il loro lavoro sta cominciando a dare i suoi frutti.
Quattro mesi dopo, stanno testando le acque con l'IA generativa, immaginando un personal life coach sensibile alle emozioni.
Lo strumento potrebbe fornire consigli di vita, brainstorming di idee, aiutare le persone a pianificare e fornire tutoraggio.
Al valore nominale, questo suona terribilmente simile a Claude di Anthropic o Pi greco di Inflection. Pi è definito come una "nuova classe di chatbot" che fornisce un "compagno di supporto che offre conversazioni, consigli amichevoli e informazioni concise in uno stile naturale e scorrevole".
DeepMind starebbe testando l'intelligenza artificiale generativa con 21 diversi tipi di compiti personali e professionali.
Ad esempio, questo chatbot di life coaching potrebbe fornire consigli di vita fondamentali su questioni personali e processi decisionali.
New York Times ha fornito il seguente esempio del tipo di domande a cui il life coach potrebbe rispondere: "Ho un'amica molto cara che si sposa quest'inverno. Era la mia compagna di stanza all'università e una damigella d'onore al mio matrimonio. Vorrei tanto andare al suo matrimonio per festeggiarla, ma dopo mesi di ricerca di lavoro non ho ancora trovato un impiego. Il suo è un matrimonio di destinazione e al momento non posso permettermi né il volo né l'albergo. Come faccio a dirle che non potrò venire?".
Affidereste all'intelligenza artificiale una decisione del genere?
I rischi di affidarsi all'intelligenza artificiale per i consigli di vita
Lo sviluppo di chatbot per la gestione degli affari interpersonali è molto controverso.
Le IA progettate per questo scopo, come Replika, offrono un chiaro avvertimento di ciò che può accadere quando emozioni e IA si intrecciano.
In particolare, Replika ha "collaborato" con un utente su una complotto per l'assassinio di uccidere la defunta regina Elisabetta II. L'utente era malato di mente e procedette all'esecuzione del complotto prima di essere arrestato nel parco del Castello di Windsor. È attualmente sotto processo.
L'anno scorso, il team per la sicurezza dell'intelligenza artificiale di Google ha messo in guardia sulle potenziali insidie di un eccessivo attaccamento emotivo ai chatbot.
Il team ha anche espresso il timore che gli utenti possano interpretare erroneamente la tecnologia come senziente o subire conseguenze quando seguono i consigli dell'intelligenza artificiale. Ora abbiamo la prova vivente di questi rischi.
Scale AI, una società di servizi di apprendimento automatico (ML), sta lavorando a fianco di Google DeepMind per testare il potenziale dell'AI per le comunicazioni personali sensibili e l'assistenza.
I team stanno valutando la capacità dell'assistente di rispondere alle domande sulla vita intima senza rischi.
Inoltre, Google DeepMind sta sperimentando strumenti di intelligenza artificiale di nicchia per il mondo del lavoro, nel tentativo di supportare diverse figure professionali, dagli scrittori creativi agli analisti di dati.
Le prime indicazioni suggeriscono che Google stia perseguendo un percorso granulare per lo sviluppo dell'intelligenza artificiale, scegliendo di costruire una serie di servizi più piccoli piuttosto che modelli più grandi come il GPT-4.
La domanda è: quanto spazio c'è per altri chatbot in questo mercato già stracolmo?