Cambridge Dictionary har kåret "hallusinere" til årets ord i 2023, og har gitt det en ny betydning knyttet til kunstig intelligens.
Begrepet, som tradisjonelt har vært forbundet med sanseopplevelser av ikke-eksisterende ting på grunn av helsetilstander eller rusmiddelbruk, omfatter nå også fenomenet med kunstig intelligens som genererer falsk informasjon.
Brukere av generativ AI, som ChatGPT, Bard og Grok, er allerede (eller burde allerede være) kjent med hallusinasjoner, som har en tendens til å oppstå når modellen forsøker å "fylle ut hullene" i kunnskapen sin ved å forutsi noe som ikke er faktabasert eller sannferdig.
I den nylig tilføyde definisjonen av hallusinasjoner står det "Når en kunstig intelligens (= et datasystem som har noen av de samme egenskapene som menneskehjernen har, for eksempel evnen til å produsere språk på en måte som virker menneskelig) hallusinerer, produserer den falsk informasjon."
Cambridge Dictionary #Årets ord2023 er ... 🥁
"hallusinere" (verb): Når en kunstig intelligens hallusinerer, produserer den falsk informasjon.
🏆 Finn ut mer om #hallucinat ⬇️ https://t.co/R3dLwBfN0V#CambridgeWOTY pic.twitter.com/Z8nRw9IfHI
- Cambridge Dictionary (@CambridgeWords) 15. november 2023
Denne endringen illustrerer også utviklingen av AIs rolle i hverdagen vår og de kulturelle endringene som følger med.
Til tross for fremskritt innen generative AI-modeller er påliteligheten til disse AI-genererte resultatene fortsatt under lupen, ettersom de noen ganger kan produsere unøyaktig eller meningsløs informasjon.
Det har vært en rekke høyprofilerte tilfeller der folk har stolt på kunstig intelligens uten å dobbeltsjekke resultatet, for så å avsløre at det var en hallusinasjon. Et kjent eksempel er en amerikansk advokat som inkludert fabrikkerte saker i et juridisk dokument som er sendt inn på vegne av en saksøker.
I tillegg var Googles AI-chatbot Bard involvert i en faktafeil angående James Webb-romteleskopet, som på pinlig vis skjedde under en live-demonstrasjon.
Wendalyn Nichols, forlagssjef i Cambridge Dictionary, understreket viktigheten av menneskelig tilsyn ved bruk av kunstig intelligens: "Det faktum at kunstig intelligens kan "hallusinere", minner oss om at vi mennesker fortsatt må bruke kritisk tenkning i bruken av disse verktøyene. AI er fantastiske til å gå gjennom enorme datamengder for å trekke ut spesifikk informasjon og konsolidere den. Men jo mer original du ber dem om å være, jo mer sannsynlig er det at de kommer på avveie."
Det at vi har gitt AI en definisjon knyttet til våre egne menneskelige erfaringer i "hallusinasjoner", er språklig spennende.
Dr. Henry Shevlin, AI-etiker ved Cambridge University, nevnte hvordan dette er et eksempel på at vi antropomorfiserer AI-teknologi for å forstå den gjennom våre menneskelige erfaringer.
Shevlin sa: "Den utbredte bruken av begrepet "hallusinere" for å referere til feil begått av systemer som ChatGPT gir [...] et fascinerende øyeblikksbilde av hvordan vi antropomorfiserer AI."
Nye AI- og teknologitermer i Cambridge Dictionary
Utover "hallusinere" er Cambridge Dictionary lagt til flere andre AI- og teknologirelaterte begreper:
- Rask prosjektering: Utforming av spørsmål for optimal AI-respons.
- Stor språkmodell (LLM): Matematiske språkrepresentasjoner basert på omfattende data, noe som gjør det mulig å generere menneskelignende språk.
- GenAI: Forkortelse for generativ AI, som omfatter AI som skaper tekst, bilder osv.
- Tog: I maskinlæring, utvikling eller forbedring av et system gjennom datainput.
- Svart boks: Systemer som opererer uten transparente prosesser for brukeren.
Disse tilføyelsene, sammen med begreper som "shadowban", "vibe check", "water neutral" og "range anxiety", viser hvordan det moderne språket utvikler seg rundt nye teknologiske temaer og trender, noe som har vært tilfelle i flere tiår.