Il Cambridge Dictionary ha annunciato "hallucinate" come parola dell'anno per il 2023, assegnandole un nuovo significato legato all'intelligenza artificiale.
Il termine, tradizionalmente associato alle esperienze sensoriali di cose inesistenti dovute a condizioni di salute o all'uso di sostanze, ora comprende anche il fenomeno dell'IA che genera false informazioni.
Gli utenti delle IA generative, come ChatGPT, Bard e Grok, hanno già (o dovrebbero avere) familiarità con le allucinazioni, che tendono a verificarsi quando il modello tenta di "riempire le lacune" della sua conoscenza prevedendo qualcosa che non è reale o veritiero.
La nuova definizione di allucinazioni afferma che: "Quando un'intelligenza artificiale (= un sistema informatico che possiede alcune delle qualità del cervello umano, come la capacità di produrre linguaggio in modo da sembrare umano) ha un'allucinazione, produce informazioni false".
Il dizionario di Cambridge #ParolaDell'anno2023 è ... 🥁
Allucinare (verbo): Quando un'intelligenza artificiale ha le allucinazioni, produce informazioni false.
🏆 Per saperne di più #allucinato ⬇️ https://t.co/R3dLwBfN0V#CambridgeWOTY pic.twitter.com/Z8nRw9IfHI
- Dizionario di Cambridge (@CambridgeWords) 15 novembre 2023
Questo cambiamento illustra anche l'evoluzione del ruolo dell'IA nella nostra vita quotidiana e i cambiamenti culturali che ne conseguono.
Nonostante i progressi nei modelli di IA generativa, l'affidabilità di questi risultati generati dall'IA rimane sotto esame, poiché a volte possono produrre informazioni imprecise o prive di senso.
Ci sono stati numerosi casi di alto profilo di persone che si sono affidate all'IA senza ricontrollare i suoi risultati, per poi scoprire che si trattava di un'allucinazione. Un esempio significativo è quello di un avvocato statunitense che incluso il caso di fabbricazione in una memoria legale presentata per conto di un querelante.
Inoltre, il chatbot AI Bard di Google è stato coinvolto in un errore di fatto relativo al telescopio spaziale James Webb, che si è verificato in modo imbarazzante durante una dimostrazione dal vivo.
Wendalyn Nichols, responsabile editoriale di Cambridge Dictionary, ha sottolineato l'importanza della supervisione umana nell'uso dell'IA, affermando: "Il fatto che le IA possano "avere le allucinazioni" ci ricorda che gli esseri umani devono ancora apportare le loro capacità di pensiero critico all'uso di questi strumenti. Le IA sono fantastiche nel lavorare su enormi quantità di dati per estrarre informazioni specifiche e consolidarle. Ma più si chiede loro di essere originali, più è probabile che vadano fuori strada".
Il fatto che abbiamo assegnato all'IA una definizione legata alle nostre esperienze umane in "allucinazioni" è linguisticamente intrigante.
Henry Shevlin, un etico dell'IA dell'Università di Cambridge, ha sottolineato come questo sia un esempio di antropomorfizzazione della tecnologia IA per comprenderla attraverso le nostre esperienze umane.
Shevlin ha dichiarato: "L'uso diffuso del termine 'allucinato' per riferirsi agli errori commessi da sistemi come ChatGPT fornisce [...] un'affascinante istantanea di come stiamo antropomorfizzando l'IA".
Nuovi termini di AI e tecnologia nel Dizionario di Cambridge
Oltre a "allucinare", il Dizionario di Cambridge aggiunto diversi altri termini legati all'intelligenza artificiale e alla tecnologia:
- Ingegneria tempestiva: Progettazione di prompt per risposte ottimali dell'intelligenza artificiale.
- Modello linguistico di grandi dimensioni (LLM): Rappresentazioni del linguaggio matematico basate su dati estesi, che consentono di generare un linguaggio simile a quello umano.
- GenAI: Abbreviazione di IA generativa, che comprende le IA che creano testo, immagini, ecc.
- Treno: Nell'apprendimento automatico, sviluppo o miglioramento di un sistema attraverso l'inserimento di dati.
- Scatola nera: Sistemi che operano senza processi trasparenti per l'utente.
Queste aggiunte, insieme a termini come "shadowban", "vibe check", "water neutral" e "range anxiety", dimostrano come il linguaggio moderno si sviluppi intorno a temi e tendenze tecnologiche emergenti, come accade da decenni.