Het Cambridge Woordenboek heeft "hallucineren" uitgeroepen tot Woord van het Jaar voor 2023 en er een nieuwe betekenis aan gegeven die te maken heeft met AI.
De term, die van oudsher wordt geassocieerd met zintuiglijke ervaringen van niet-bestaande dingen als gevolg van gezondheidsproblemen of middelengebruik, omvat nu ook het fenomeen van AI die valse informatie genereert.
Gebruikers van generatieve AI, zoals ChatGPT, Bard en Grok, zijn al bekend (of zouden dat al moeten zijn) met hallucinaties, die meestal optreden wanneer het model probeert om 'de gaten in zijn kennis op te vullen' door iets te voorspellen dat niet feitelijk of waar is.
De nieuw toegevoegde definitie van hallucinaties stelt: "Wanneer een kunstmatige intelligentie (= een computersysteem dat enkele van de kwaliteiten heeft die het menselijk brein heeft, zoals het vermogen om taal te produceren op een manier die menselijk lijkt) hallucineert, produceert het valse informatie."
Het Cambridge Woordenboek 1TP5WoordVanHetJaar2023 is ... 🥁
hallucineren' (werkwoord): Als een kunstmatige intelligentie hallucineert, produceert ze valse informatie.
Meer informatie over #hallucinaat ⬇️ https://t.co/R3dLwBfN0V#CambridgeWOTY pic.twitter.com/Z8nRw9IfHI
- Cambridge Woordenboek (@CambridgeWoorden) 15 november 2023
Deze verandering illustreert ook de veranderende rol van AI in ons dagelijks leven en de culturele veranderingen die daaruit voortvloeien.
Ondanks de vooruitgang in generatieve AI-modellen blijft de betrouwbaarheid van deze door AI gegenereerde output kritisch, omdat ze soms onnauwkeurige of onzinnige informatie produceren.
Er zijn talloze geruchtmakende gevallen geweest van mensen die op AI vertrouwden zonder de uitvoer ervan te controleren, om later te worden onthuld als een hallucinatie. Een opmerkelijk voorbeeld was een Amerikaanse advocaat die inclusief gefabriceerde koffers in een juridische brief die wordt ingediend namens een eiser.
Daarnaast was Google's AI chatbot Bard betrokken bij een feitelijke fout met betrekking tot de James Webb Space Telescope, die pijnlijk genoeg plaatsvond tijdens een live demonstratie.
Wendalyn Nichols, publishing manager bij Cambridge Dictionary, benadrukte het belang van menselijk toezicht bij het gebruik van AI's: "Het feit dat AI's kunnen 'hallucineren' herinnert ons eraan dat mensen nog steeds kritisch moeten nadenken over het gebruik van deze hulpmiddelen. AI's zijn fantastisch in het omwoelen van enorme hoeveelheden gegevens om er specifieke informatie uit te halen en die te consolideren. Maar hoe origineler je ze vraagt om te zijn, hoe waarschijnlijker het is dat ze op een dwaalspoor raken."
Het feit dat we AI in "hallucinaties" een definitie hebben gegeven die gerelateerd is aan onze eigen menselijke ervaringen, is taalkundig intrigerend.
Dr. Henry Shevlin, een AI-ethicus aan de Universiteit van Cambridge, zei dat dit een voorbeeld is van hoe we AI-technologie antropomorfiseren om het te begrijpen via onze menselijke ervaringen.
Shevlin zei: "Het wijdverbreide gebruik van de term 'hallucineren' om te verwijzen naar fouten van systemen zoals ChatGPT biedt [...] een fascinerende momentopname van hoe we AI antropomorfiseren."
Nieuwe AI- en technische termen in het Cambridge Woordenboek
Naast "hallucineren," de Cambridge Woordenboek toegevoegd verschillende andere AI- en technologiegerelateerde termen:
- Snelle engineering: Het ontwerpen van prompts voor optimale AI-respons.
- Groot taalmodel (LLM): Wiskundige taalrepresentaties gebaseerd op uitgebreide gegevens, waardoor taalgeneratie zoals bij mensen mogelijk is.
- GenAI: Afkorting voor generatieve AI, waaronder AI's vallen die tekst, afbeeldingen, enz. creëren.
- Trein: Bij machinaal leren, het ontwikkelen of verbeteren van een systeem door gegevensinvoer.
- Zwarte doos: Systemen die werken zonder transparante processen voor de gebruiker.
Deze toevoegingen, samen met termen als "shadowban", "vibe check", "water neutral" en "range anxiety", laten zien hoe modern taalgebruik zich ontwikkelt rond opkomende technologische thema's en trends, wat al tientallen jaren het geval is.