Google ha mantenuto una chat esclusiva su Discord per il suo chatbot AI Bard, uno spazio in cui gli ingegneri, i product manager e i progettisti di Google possono discutere e valutare apertamente le prestazioni e il valore dello strumento AI.
Le conversazioni interne hanno dimostrato che i ricercatori di Google non sono pienamente investiti nell'efficacia o nell'utilità di Bard, che rimane una scelta periferica rispetto ad altri chatbot AI come ChatGPT.
Da luglio a ottobre, Bloomberg ha ottenuto da due partecipanti alla comunità informazioni sui dettagli della discussione all'interno del server Discord del Bardo di Google. Le discussioni hanno rivelato un dibattito interno sull'efficacia e sugli usi del Bardo.
Dominik Rabiej, Senior Product Manager di Bard, ha espresso un cauto scetticismo in un messaggio di luglio su Discord.
Ha dichiarato: "La mia regola è di non fidarmi dei risultati del LLM a meno che non possa verificarli in modo indipendente", mettendo in luce le persistenti incertezze sulle capacità di Bard.
Anche un'altra importante dirigente, Cathy Pearl, responsabile dell'esperienza utente del Bard, ha espresso ambiguità sull'utilità del Bard nel mondo reale.
Dalla sua introduzione a marzo come concorrente di ChatGPT di OpenAI, Bard ha subito una serie di aggiornamenti di funzionalità, come la capacità di analisi delle foto e la generazione di risposte multilingue. Pur essendo impressionante, non ha suscitato tanto scalpore quanto il rilascio di "GPT-4V" da parte di OpenAI, che aggiunge al modello GPT-4 il riconoscimento delle immagini.
Il mese scorso Google ha collegato ambiziosamente Bard a diversi strumenti del suo Workspace come Gmail, Maps, Docs e YouTube, avviando le integrazioni a partire dal 19 settembre. Secondo le chat di Discord, sono emersi altri problemi man mano che Bard si intreccia ulteriormente con le offerte di Google.
Sono emerse lamentele sul fatto che lo strumento di intelligenza artificiale genera fatti infondati e fornisce consigli potenzialmente pericolosi, inducendo Google a introdurre un pulsante di ricerca su Bard nello stesso giorno in cui ha annunciato le estensioni delle app.
Questa funzione consente agli utenti di convalidare le risposte generate dall'IA di Bard rispetto ai risultati del motore di ricerca di Google per una maggiore veridicità.
Ulteriori polemiche sono sorte nei confronti di coloro che hanno contribuito all'addestramento di Bard - migliaia di appaltatori a basso salario. Google non è l'unica: si tratta di una situazione tipica dell'industria dell'intelligenza artificiale, che si basa su assistenza estesa da parte di terzi dalle aziende di etichettatura dei dati.
L'IA generativa ha sfidato Il dominio della ricerca di Google con strumenti di OpenAI e di varie startup, potenzialmente in grado di compromettere la ricerca e, di conseguenza, le entrate pubblicitarie.
Il gruppo Discord ha visto anche discussioni tra gli utenti su vari argomenti sensibili legati a Google. Un membro è stato presumibilmente espulso dal gruppo dopo aver sollevato dubbi etici riguardo a Progetto Nimbus, un contratto da $1,2 miliardi per Google e Amazon per fornire strumenti di intelligenza artificiale all'esercito israeliano.
Nonostante l'ampiezza dei pareri sui costi delle risorse e sull'accuratezza di Bard, il responsabile del prodotto, Warkentin, ha confermato gli sforzi mirati a "ridurre l'allucinazione e aumentare la fattualità", notando notevoli miglioramenti dal rilascio di Bard.
Ma Rabiej ha ricordato agli utenti che, come tutti i LLM, il Bard non ha una vera comprensione dei testi che elabora, sottolineando la sua natura generativa.
Bard potrebbe non essere il prodotto di punta dell'AI di Google per molto tempo, con le discussioni su un nuovo prodotto multi-modale. chiamato Progetto Gemini produzione di birra. Tuttavia, non c'è ancora molto di concreto da discutere al riguardo.