La nuova funzione AI Overview di Google, che mira a fornire agli utenti sintesi dei risultati di ricerca generate dall'intelligenza artificiale, è stata criticata per aver fornito risposte fuorvianti, imprecise e talvolta del tutto bizzarre.
La funzione, ora in distribuzione a miliardi di persone dopo che Google l'ha ribadita in occasione del recente Conferenza degli sviluppatori Google I/Oè diventato oggetto di scherno e preoccupazione sui social media, in quanto gli utenti hanno esposto esempi di errori dell'intelligenza artificiale.
Era solo questione di tempo. Curiosità umana ha la meglio sui guardrail dell'IA, in un modo o nell'altro.
Giornalisti e utenti comuni si sono rivolti a X e ad altre piattaforme per sottolineare i casi in cui la funzione AI Overview ha citato fonti dubbie, come articoli satirici di The Onion o post scherzosi su Reddit, come se fossero reali.
In uno dei casi più allarmanti, l'informatica Melanie Mitchell ha mostrato un esempio di visualizzazione di una teoria cospirativa che suggerisce che l'ex presidente Barack Obama sia musulmano, apparentemente come risultato di un'interpretazione errata da parte dell'intelligenza artificiale di informazioni provenienti da una piattaforma di ricerca della Oxford University Press.
Altri esempi di errori dell'IA includono il plagio di testi da blog senza rimuovere i riferimenti personali ai figli degli autori, il mancato riconoscimento dell'esistenza di Paesi africani che iniziano con la lettera "K" e il suggerimento che i pitoni siano mammiferi.
Alcuni di questi risultati imprecisi, come la teoria del complotto di Obama o il suggerimento di mettere la colla sulla pizza, non visualizzano più un riepilogo dell'IA e mostrano invece articoli che fanno riferimento ai problemi fattuali dell'IA.
Tuttavia, ci si chiede se la panoramica sull'IA possa mai servire correttamente allo scopo.
Google ha già riconosciuto il problema e un portavoce dell'azienda ha dichiarato che The Verge che gli errori sono apparsi su "query generalmente molto rare e non sono rappresentativi delle esperienze della maggior parte delle persone".
Tuttavia, la causa esatta del problema rimane poco chiara. Potrebbe essere dovuto alla tendenza dell'IA ad avere "allucinazioni".
Oppure, potrebbe derivare dalle fonti che Google utilizza per generare le sintesi, come articoli satirici o post di troll sui social media.
In un'intervista a The Verge, il CEO di Google Sundar Pichai ha affrontato la questione delle allucinazioni dell'intelligenza artificiale, riconoscendo che si tratta di un "problema irrisolto" ma senza fornire una tempistica per una soluzione.
Non è la prima volta che Google affronta critiche per i suoi prodotti di intelligenza artificiale; all'inizio di quest'anno, Gemini AI, un concorrente di ChatGPT e DALL-E di OpenAI, è stato messo sotto accusa per aver generato immagini storicamente inaccurate, tra cui ufficiali nazisti razzialmente diversi, presidenti donne bianche e un papa donna.
In risposta, Google si è successivamente scusato pubblicamente e temporaneamente sospeso La capacità dei Gemelli di generare immagini di persone.
L'AI Overview è stata anche criticata dai proprietari di siti web e dalla comunità del marketing, in quanto minaccia di spostare gli utenti dall'interazione con i risultati tradizionali dei motori di ricerca al semplice affidamento agli snippet generati dall'AI.