2.778 onderzoekers geven hun mening over AI-risico's - wat leren we van hun antwoorden?

4 januari 2024

AI-risico's

Een grootschalig onderzoek onder 2700 AI-onderzoekers onthulde verdeelde meningen over de risico's van AI.

De enquête uitgevoerd door AI Impacts, de grootste in zijn soort, waren professionals betrokken die onderzoek hebben gepubliceerd op zes toonaangevende AI-conferenties.

De deelnemers werd gevraagd hun mening te geven over toekomstige mijlpalen op het gebied van AI en hun maatschappelijke implicaties. 

Met name bijna 58% van deze onderzoekers denkt dat er een kans van 5% is dat de mens uitsterft of dat er soortgelijke ernstige gevolgen zijn als gevolg van de vooruitgang van de AI.

Andere bevindingen suggereren dat AI een waarschijnlijkheid van 50% of hoger heeft om taken te beheersen die variëren van het componeren van muziek tot het ontwikkelen van een complete website voor het verwerken van betalingen in het volgende decennium. 

Complexere taken, zoals het aanleggen van elektrische bedrading of het oplossen van wiskundige problemen, zullen naar verwachting langer duren, hoewel DeepMind heeft onlangs aangetoond De superieure prestaties van AI bij het aanpakken van de cap set en bin packing problemen. 

Onderzoekers schatten ook een kans van 50% dat AI in 2047 de menselijke prestaties in alle taken zal overtreffen en dat in 2116 alle menselijke banen geautomatiseerd zullen zijn. Dit gaat ervan uit dat de wetenschap 'ongestoord blijft'. 

De resultaten zijn zeker gemengd, maar het is eerlijk om te zeggen dat AI-risico's nog geen kritische massa hebben bereikt. 

Katja Grace van het Machine Intelligence Research Institute in Californië vermeld van het onderzoek"Het is een belangrijk signaal dat de meeste AI-onderzoekers het niet erg ongeloofwaardig vinden dat geavanceerde AI de mensheid vernietigt."

Hier is een lijst met de belangrijkste statistieken en bevindingen:

  • Waarschijnlijkheid dat AI mijlpalen bereikt tegen 2028: Er is een kans van 50% dat AI-systemen een betalingsverwerkingssite kunnen bouwen, een liedje kunnen maken dat niet te onderscheiden is van dat van een populaire muzikant en een groot taalmodel (LLM) kunnen downloaden en afstemmen.
  • Voorspellingen van AI-prestaties op menselijk niveau: Het onderzoek schat de kans op 10% in 2027 en 50% in 2047 dat machines zonder hulp in alle taken beter zullen presteren dan mensen. Deze voorspelling voor 2047 is 13 jaar eerder dan die voor 2022.

  • Automatisering van menselijke beroepen: Er is een kans van 10% dat alle menselijke beroepen tegen 2037 volledig automatiseerbaar zullen zijn en een kans van 50% tegen 2116, een vooruitgang ten opzichte van de voorspelling van 2164 in 2022.
  • Vooruitblik op de langetermijnwaarde van AI68,3% van de respondenten denkt dat goede uitkomsten van "bovenmenselijke AI waarschijnlijker zijn dan slechte, maar 48% van deze optimisten zien nog steeds minstens 5% kans op extreem slechte uitkomsten zoals het uitsterven van de mens. Ondertussen ziet 59% van de pessimisten een kans van 5% of meer op extreem goede uitkomsten.
  • Zorgen over AI-gestuurde scenario's: Meer dan 70% van de onderzoekers uitten hun bezorgdheid over zaken als diepe vervalsingen, manipulatie van de publieke opinie en ontworpen wapens. Diepe vervalsingen veroorzaakten de meeste ongerustheid, met 86% van de onderzoekers. 
  • Waarschijnlijkheidsschattingen voor AI-risico's: Tussen 37,8% en 51,4% van de respondenten gelooft dat er minstens een 10% kans is dat geavanceerde AI kan leiden tot resultaten die net zo ernstig zijn als het uitsterven van de mens.

  • Waarschijnlijkheidsschattingen voor HLMI (High-Level Machine Intelligence): De geaggregeerde voorspelling voor 2023 voorspelt een kans van 50% om HLMI te bereiken in 2047, wat een aanzienlijke verschuiving betekent ten opzichte van de voorspelling van 2060 in 2022.
  • Waarschijnlijkheid van volledige automatisering van arbeid (FAOL): De voorspelling voor 2023 schat een kans van 50% op FAOL in 2116, 48 jaar eerder dan een vergelijkbare voorspelling in 2022.
  • AI-veiligheidsonderzoek: Ongeveer 70% van de deelnemers aan het onderzoek vindt dat onderzoek naar AI-veiligheid meer prioriteit moet krijgen dan nu het geval is.

Onmiddellijke risico's overschaduwen de lange termijn

Naast de existentiële risico's laat de enquête zien dat een aanzienlijke meerderheid van de onderzoekers zich zorgen maakt over AI.

Meer dan 70% maakt zich grote zorgen over AI-gedreven kwesties zoals diepe vervalsingen, manipulatie van de publieke opinie, ontworpen wapens, autoritaire controle en escalerende economische ongelijkheid. 

Émile Torres van de Case Western Reserve University in Ohio waarschuwt specifiek voor de rol van AI bij het verspreiden van desinformatie over kritieke onderwerpen en de impact daarvan op het democratisch bestuur: "We hebben hier en nu al de technologie die de democratie [in de VS] ernstig zou kunnen ondermijnen." 

Politieke campagnes van Amerikaanse en Canadese politici hebben al gebruik gemaakt van AI om beelden te creëren, en AI-robocalls worden momenteel ingezet om kiezers op te trommelen. 

Een andere belangrijke incident waren de recente verkiezingen in Slowakije, waarbij j48 uur voor de verkiezingen dook op sociale media een vervalst geluidsfragment op waarin naar verluidt belangrijke politieke figuren het hadden over tactieken om stemmen te kopen.

Het veroorzaakte wijdverspreide verwarring tijdens een kritieke stilteperiode voorafgaand aan de verkiezingen. De timing van de publicatie maakte het bijna onmogelijk om de effecten snel tegen te gaan. 

Meer recent waren AI-gegenereerde lastercampagnes gericht op de felbevochten verkiezingen in Bangladeshmet inhoud die erop gericht is de tegenpartij in diskrediet te brengen door hun steun te betuigen aan het bombarderen van Gaza, een gevoelig onderwerp in een land met een moslimmeerderheid. 

Tijdlijnen voor AI-risico's worden besproken

Vergelijkingen tussen de kortetermijn- en langetermijneffecten van AI zorgden voor felle discussies toen het Center for AI Safety (CAIS) gaf een dramatische verklaring vrij in 2023 waarin AI-risico's worden vergeleken met pandemieën en kernoorlogen. 

Een stortvloed aan media-aandacht volgt waarin de ergste voorspellingen voor de ontwikkeling van AI worden besproken, van moorddadige robots tot oncontroleerbare drones op het slagveld. 

Tot nu toe is het de manier waarop mensen AI gebruiken die risico's met zich meebrengt - een geval van "AI doodt geen mensen, mensen doen dat" - en zorgen over existentiële risico's worden soms gezien als overschaduwend voor wat er op dit moment gebeurt.

Vooral diepe vervalsingen hebben bewezen tastbare gevolgen voor de menselijke samenleving.

AI ontploffing Pentagon
Deze nep AI-gegenereerde afbeelding van een explosie bij het Pentagon tijdelijk beïnvloedde de financiële markten begin 2023. Bron: X.

Hier zit nog een laag aan, zoals aangevoerd door Yann LeCun, een prominent figuur in AI, die suggereert dat grotere techbedrijven misschien deze risico's overdrijven om regelgevende acties in hun voordeel te beïnvloeden. 

De angst, die vaak wordt aangewakkerd door de grote techbedrijven, zou een strategische zet kunnen zijn om strenge regels aan te moedigen, die nadelig kunnen zijn voor kleinere entiteiten en open source-initiatieven. 

Dit brengt een subtieler gevaar aan het licht - de potentiële monopolisering van AI door een paar grote bedrijven, waardoor innovatie en diversiteit in AI in de kiem worden gesmoord.

Dat laat de grote spelers in de ruimte, zoals Google en OpenAI, over om de industrie in hun eigen richting te duwen, zolang ze aan de eisen van naleving kunnen voldoen.

Existentiële risico's - wat zegt het bewijs?

De dialoog over risico's beweegt zich vaak tussen twee uitersten: scepticisme en alarmisme. Welk feitelijk bewijs is er dat suggereert dat AI ons zou kunnen doden of anderszins de planeet zou kunnen vernietigen?

Het idee van AI-wapening is misschien wel het meest voor de hand liggende voorbeeld. Hier zouden AI-systemen mensen kunnen doden met beperkt toezicht, of dreigers zouden de technologie kunnen gebruiken om catastrofaal effectieve wapens te ontwikkelen. 

Drones zijn ongetwijfeld al in staat om doelen te vernietigen met minimale menselijke inbreng, zoals is aangetoond in de Israël-Palestina en Rusland-Oekraïne conflicten al.

Het onbemande vliegtuig XQ-58A Valkyrie werd volledig AI-geautomatiseerd in 2023. Bron: Wikimedia Commons.

Een subtielere oorzaak van het existentiële risico van AI is verzwakking. Het gaat hier niet alleen om het verlies van banen aan robots, maar ook om het verlies van essentiële menselijke capaciteiten en creativiteit. Een veelgebruikte analogie is de film WALL-E, waar blob-achtige mensen robots hebben om hun bevelen uit te voeren ten koste van de aarde zelf.

Er is enig bewijs dat LLM's zoals ChatGPT het kritisch denken van studenten uithollen, hoewel het veel te vroeg is om dat met zekerheid te zeggen.

Onderwijsinstellingen zijn erop gebrand om de voordelen van AI in te zetten zonder de door mensen geleide academische wereld de das om te doen, nu verschillende vooraanstaande instellingen het gebruik van de technologie door studenten voorwaardelijk hebben goedgekeurd.

WALL-E AI
WALL-E is een populair voorbeeld van AI of technologie-gerelateerde 'verzwakking'.

Een ander redelijk goed gedocumenteerd risico is de ontwikkeling van nieuwe doelen door AI, zoals wordt benadrukt door onderzoek van de Universiteit van Cambridge en DeepMindDit kan onbedoelde en mogelijk schadelijke gevolgen hebben voor de menselijke samenleving.

Emergente doelen zouden kunnen inhouden dat hoogintelligente AI's hun eigen onvoorspelbare doelen stellen, mogelijk zelfs ontsnappen aan hun architectuur om andere systemen te 'infecteren'. 

Uiteindelijk is het potentieel van AI voor dramatisch en gewelddadig uitsterven zeer speculatief en er zijn weinig voorbeelden of bewijzen dat dit snel zou kunnen gebeuren. Experimenteel bewijs rond opkomende doelen en andere mogelijke methoden van autonome AI's om schade aan te richten groeit echter.

Voorlopig hebben we genoeg directe risico's die we moeten aanpakken, en laten we niet vergeten dat deze uitdagingen zich parallel aan klimaatverandering, habitatverlies, bevolkingscrises en andere risico's op macroniveau zullen ontvouwen.

Hoewel er opwinding is over de potentiële successen van AI, is er ook een voelbare bezorgdheid over de onmiddellijke risico's en de gevolgen op de lange termijn. 

Dit nieuwste onderzoek herinnert ons eraan dat het debat over AI niet moet worden gericht op existentiële risico's in de verte, ten koste van de directe uitdagingen en ethische dilemma's die deze transformatieve technologie met zich meebrengt. 

Naarmate AI zich verder ontwikkelt, wordt het vinden van een balans in dit debat cruciaal om de ontwikkeling ervan in de richting van gunstige en veilige resultaten voor de mensheid te sturen.

Doe mee met de toekomst


SCHRIJF JE VANDAAG NOG IN

Duidelijk, beknopt, uitgebreid. Krijg grip op AI-ontwikkelingen met DailyAI

Sam Jeans

Sam is een wetenschap- en technologieschrijver die bij verschillende AI-startups heeft gewerkt. Als hij niet aan het schrijven is, leest hij medische tijdschriften of graaft hij door dozen met vinylplaten.

×

GRATIS PDF EXCLUSIEF
Blijf voorop met DailyAI

Meld je aan voor onze wekelijkse nieuwsbrief en ontvang exclusieve toegang tot DailyAI's nieuwste eBook: 'Mastering AI Tools: Your 2024 Guide to Enhanced Productivity'.

* Door u aan te melden voor onze nieuwsbrief accepteert u onze Privacybeleid en onze Algemene voorwaarden