Cambridge Dictionary har udnævnt "hallucinere" til årets ord i 2023 og givet det en ny betydning i forbindelse med AI.
Begrebet, der traditionelt forbindes med sanseoplevelser af ikke-eksisterende ting på grund af helbredstilstande eller stofmisbrug, omfatter nu også fænomenet AI, der genererer falsk information.
Brugere af generativ AI som ChatGPT, Bard og Grok er allerede (eller burde allerede være) bekendt med hallucinationer, som har en tendens til at opstå, når modellen forsøger at "udfylde hullerne" i sin viden ved at forudsige noget, der ikke er faktuelt eller sandt.
Den nyligt tilføjede definition af hallucinationer siger: "Når en kunstig intelligens (= et computersystem, der har nogle af de kvaliteter, som den menneskelige hjerne har, f.eks. evnen til at producere sprog på en måde, der virker menneskelig) hallucinerer, producerer den falsk information."
Cambridge-ordbogen #Årets ord2023 er ... 🥁
'hallucinere' (verbum): Når en kunstig intelligens hallucinerer, producerer den falsk information.
🏆 Find ud af mere om #hallucinat ⬇️ https://t.co/R3dLwBfN0V#CambridgeWOTY pic.twitter.com/Z8nRw9IfHI
- Cambridge Dictionary (@CambridgeWords) 15. november 2023
Denne ændring illustrerer også den voksende rolle, som AI spiller i vores hverdag, og de kulturelle ændringer, der følger med.
På trods af fremskridt inden for generative AI-modeller er pålideligheden af disse AI-genererede output stadig under lup, da de nogle gange kan producere unøjagtige eller meningsløse oplysninger.
Der har været adskillige højt profilerede tilfælde, hvor folk har stolet på AI uden at dobbelttjekke dens output, og hvor det senere har vist sig at være en hallucination. Et bemærkelsesværdigt eksempel var en amerikansk advokat, som inkluderet fabrikerede sager i et juridisk indlæg på vegne af en sagsøger.
Derudover var Googles AI-chatbot Bard involveret i en faktuel fejl vedrørende James Webb-rumteleskopet, som på pinlig vis opstod under en live-demonstration.
Wendalyn Nichols, der er publishing manager hos Cambridge Dictionary, understregede vigtigheden af menneskeligt tilsyn med brugen af AI og sagde: "Det faktum, at AI kan 'hallucinere', minder os om, at mennesker stadig er nødt til at bruge deres kritiske evner i brugen af disse værktøjer. AI'er er fantastiske til at gennemgå enorme mængder data for at udtrække specifikke oplysninger og konsolidere dem. Men jo mere original man beder dem om at være, jo mere sandsynligt er det, at de kommer på afveje."
Det faktum, at vi har givet AI i "hallucinationer" en definition, der er relateret til vores egne menneskelige erfaringer, er sprogligt spændende.
Dr. Henry Shevlin, AI-etiker ved Cambridge University, nævnte, at dette er et eksempel på, at vi antropomorfiserer AI-teknologi for at forstå den gennem vores menneskelige erfaringer.
Shevlin sagde: "Den udbredte brug af udtrykket 'hallucinere' for at henvise til fejl begået af systemer som ChatGPT giver [...] et fascinerende øjebliksbillede af, hvordan vi antropomorfiserer AI."
Nye AI- og tech-termer i Cambridge Dictionary
Ud over "hallucinere" er Cambridge Dictionary tilføjet flere andre AI- og teknologirelaterede udtryk:
- Hurtig teknik: Udformning af prompts til optimale AI-svar.
- Stor sprogmodel (LLM): Matematiske sprogrepræsentationer baseret på omfattende data, der gør det muligt at generere menneskelignende sprog.
- GenAI: Forkortelse for generativ AI, som omfatter AI, der skaber tekst, billeder osv.
- Tog: Inden for maskinlæring udvikler eller forbedrer man et system ved hjælp af datainput.
- Sort boks: Systemer, der fungerer uden gennemsigtige processer for brugeren.
Disse tilføjelser sammen med udtryk som "shadowban", "vibe check", "water neutral" og "range anxiety" viser, hvordan det moderne sprog udvikler sig omkring nye teknologiske temaer og tendenser, hvilket har været tilfældet i årtier.