Cambridge Dictionary har utsett "hallucinate" till årets ord för 2023 och gett det en ny betydelse kopplad till AI.
Begreppet, som traditionellt förknippas med sensoriska upplevelser av icke-existerande saker på grund av hälsotillstånd eller substansbruk, omfattar nu även fenomenet att AI genererar falsk information.
Användare av generativ AI, som ChatGPT, Bard och Grok, är redan (eller borde redan vara) bekanta med hallucinationer, som tenderar att uppstå när modellen försöker "fylla i luckorna" i sin kunskap genom att förutsäga något som inte är faktabaserat eller sanningsenligt.
I den nytillkomna definitionen av hallucinationer anges följande: "När en artificiell intelligens (= ett datorsystem som har vissa av de egenskaper som den mänskliga hjärnan har, till exempel förmågan att producera språk på ett sätt som verkar mänskligt) hallucinerar, producerar den falsk information."
Cambridge-ordboken #Årets ord2023 är ... 🥁
"hallucinera" (verb): När en artificiell intelligens hallucinerar producerar den falsk information.
🏆 Ta reda på mer om #hallucinat ⬇️ https://t.co/R3dLwBfN0V#CambridgeWOTY pic.twitter.com/Z8nRw9IfHI
- Cambridge Dictionary (@CambridgeWords) 15 november 2023
Denna förändring illustrerar också AI:s framväxande roll i vår vardag och de kulturella förändringar som följer i dess spår.
Trots framsteg inom generativa AI-modeller är tillförlitligheten hos dessa AI-genererade resultat fortfarande under granskning, eftersom de ibland kan producera felaktig eller meningslös information.
Det har förekommit många uppmärksammade fall där människor har förlitat sig på AI utan att dubbelkolla dess resultat, bara för att det senare har visat sig vara en hallucination. Ett anmärkningsvärt exempel involverade en amerikansk advokat som inkluderade tillverkade fodral i en juridisk inlaga som lämnas in för en kärandes räkning.
Dessutom var Googles AI-chatbot Bard inblandad i ett faktafel om James Webb Space Telescope, som pinsamt nog inträffade under en live-demonstration.
Wendalyn Nichols, förlagschef på Cambridge Dictionary, betonade vikten av mänsklig tillsyn vid användning av AI och sa: "Det faktum att AI kan 'hallucinera' påminner oss om att människor fortfarande måste använda sitt kritiska tänkande när de använder dessa verktyg. AI är fantastiska på att gå igenom enorma mängder data för att extrahera specifik information och konsolidera den. Men ju mer originella de ska vara, desto större är risken att de hamnar på villovägar."
Det faktum att vi har gett AI en definition som är relaterad till våra egna mänskliga erfarenheter i "hallucinationer" är språkligt spännande.
Dr Henry Shevlin, AI-etiker vid Cambridge University, menade att detta är ett exempel på hur vi förmänskligar AI-tekniken för att förstå den genom våra mänskliga erfarenheter.
Shevlin sa: "Den utbredda användningen av termen "hallucinera" för att hänvisa till misstag av system som ChatGPT ger [...] en fascinerande ögonblicksbild av hur vi antropomorfiserar AI."
Nya AI- och tekniktermer i Cambridge Dictionary
Utöver "hallucinera" är Cambridge Dictionary tillagd flera andra AI- och teknikrelaterade termer:
- Snabb teknik: Utformning av uppmaningar för optimala AI-svar.
- Stor språkmodell (LLM): Matematiska språkrepresentationer baserade på omfattande data, vilket möjliggör människoliknande språkgenerering.
- GenAI: Förkortning för generativ AI, som omfattar AI som skapar text, bilder etc.
- Tåg: Inom maskininlärning, utveckling eller förbättring av ett system genom datainmatning.
- Svart låda: System som fungerar utan transparenta processer för användaren.
Dessa tillägg, tillsammans med termer som "shadowban", "vibe check", "water neutral" och "range anxiety", visar hur det moderna språket utvecklas kring nya tekniska teman och trender, vilket har varit fallet i årtionden.