Studie daagt het verhaal uit dat AI een 'existentiële bedreiging' vormt

15 augustus 2024

  • Onderzoekers onderzochten LLM's op tekenen van existentiële risico's of "opkomende vaardigheden".
  • Ze concluderen dat de huidige LLM's niet zelfstandig nieuwe vaardigheden kunnen ontwikkelen
  • Ze brengen dus geen existentiële risico's met zich mee, hoewel andere risico's blijven bestaan

Is AI riskant of niet? Het is het debat dat maar door blijft razen zonder definitieve antwoorden.

Onderzoekers van de Universiteit van Bath en de Technische Universiteit van Darmstadt hebben een studie opgezet om de risico's van AI te evalueren in de context van huidige taalmodellen zoals ChatGPT. 

De bevindingen, gepubliceerd als onderdeel van de 62e jaarlijkse bijeenkomst van de Association for Computational Linguistics (ACL 2024), bestrijden opvattingen dat AI, met name grote taalmodellen (LLM's) zoals ChatGPT, zich buiten de menselijke controle zouden kunnen ontwikkelen en een existentiële bedreiging voor de mensheid zouden kunnen vormen.

Dit confronteert ons met de angsten die zijn geuit door enkele van 's werelds meest vooraanstaande AI-onderzoekers, waaronder Geoffrey Hinton en Yoshua Bengio, twee van de "peetvaders van AI" die hun bezorgdheid hebben geuit over de potentiële gevaren van geavanceerde AI. 

Yann LeCun, de derde "godfather van AI" en Meta's hoofdwetenschapper op het gebied van AI, beargumenteert samen met Dr. Gary Marcus en anderen het tegendeel - dat AI-risico's zijn gewoon overdreven

Deze meningsverschillen tussen de meest invloedrijke figuren op dit gebied hebben voedde een fel debat over de aard en ernst van de risico's van geavanceerde AI-systemen.

Deze nieuwe studie peilt naar de "opkomende vaardigheden" van LLM's, die verwijzen naar het vermogen van een model om taken uit te voeren waarvoor het niet expliciet is getraind. 

AI-risico's zijn veelzijdig, maar ten minste enkele hebben betrekking op modellen die hun eigen doelen ontwikkelen die mensen kunnen schaden, zoals het uitschakelen van computersystemen of het lekken van gegevens.

De vraag is of een LLM deze vaardigheden spontaan kan ontwikkelen zonder instructie of controle. 

Om dit te onderzoeken voerde het onderzoeksteam een reeks experimenten uit:

  1. Ze onderzochten de onderliggende mechanismen van "in-context-leren" (ICL) in LLM's, waardoor modellen reacties kunnen genereren op basis van voorbeelden die tijdens interacties worden gegeven. Zoals de studie stelt: "Het vermogen om instructies op te volgen impliceert niet dat ze redeneervaardigheden hebben, en nog belangrijker, het impliceert niet de mogelijkheid van latente, potentieel gevaarlijke vaardigheden."
  2. Ze beoordeelden de werkelijke capaciteiten en beperkingen van LLM's door hun prestaties te evalueren op een reeks taken, waaronder taken die complexe redeneer- en probleemoplossende vaardigheden vereisen. De onderzoekers stellen dat LLM's niet zelfstandig nieuwe vaardigheden kunnen ontwikkelen...
  3. Ze analyseerden de relatie tussen modelgrootte, trainingsgegevens en opkomende vaardigheden om te bepalen of toenemende complexiteit van het model ertoe leidt dat AI gevaarlijke vaardigheden ontwikkelt. Het onderzoek zei: "Deze observaties impliceren dat onze bevindingen gelden voor elk model dat een neiging tot hallucinatie vertoont of onmiddellijke engineering vereist, inclusief modellen met een grotere complexiteit, ongeacht de schaal of het aantal modaliteiten, zoals GPT-4."

De onderzoekers concluderen uit hun onderzoek dat "het heersende verhaal dat dit soort AI een bedreiging vormt voor de mensheid de wijdverspreide adoptie en ontwikkeling van deze technologieën in de weg staat en ook de aandacht afleidt van de echte problemen die onze aandacht vereisen."

Dit komt sterk overeen met LeCun en anderen die vinden dat AI-risico's overgepubliceerd worden.

Maar terwijl het evalueren van de risico's van de huidige AI-modellen natuurlijk essentieel is, is het afleggen van verantwoording voor de toekomst een lastigere taak. 

Elke generatie modellen komt met nieuwe mogelijkheden en dus nieuwe risico's, zoals blijkt uit enkele vreemde gedragingen die zijn gedocumenteerd in GPT-4o's testkaart

Tijdens een red teaming oefening (ontworpen om onvoorspelbaar AI-gedrag te identificeren) was het schokkend om te zien hoe de stemfunctie van GPT-4o onverwacht de stem van een gebruiker kloonde en met zijn eigen stem tegen hem begon te praten. 

Het is van cruciaal belang om AI-risico's te volgen op het moment dat ze zich voordoen, omdat de doelpalen voortdurend veranderen. 

Het onderzoek maakt een saillant punt dat sommige niet-existentiële AI-risico's al aan de deur kloppen: "Toekomstig onderzoek moet zich daarom richten op andere risico's van de modellen, zoals hun potentieel om te worden gebruikt om nepnieuws te genereren."

De auteurs geven toe dat het feit dat AI op dit moment geen grootschalige bedreiging vormt, niet betekent dat veiligheid geen probleem is. 

Doe mee met de toekomst


SCHRIJF JE VANDAAG NOG IN

Duidelijk, beknopt, uitgebreid. Krijg grip op AI-ontwikkelingen met DailyAI

Sam Jeans

Sam is een wetenschap- en technologieschrijver die bij verschillende AI-startups heeft gewerkt. Als hij niet aan het schrijven is, leest hij medische tijdschriften of graaft hij door dozen met vinylplaten.

×

GRATIS PDF EXCLUSIEF
Blijf voorop met DailyAI

Meld je aan voor onze wekelijkse nieuwsbrief en ontvang exclusieve toegang tot DailyAI's nieuwste eBook: 'Mastering AI Tools: Your 2024 Guide to Enhanced Productivity'.

* Door u aan te melden voor onze nieuwsbrief accepteert u onze Privacybeleid en onze Algemene voorwaarden