Volgens een door de VS opgesteld rapport vormt AI een bedreiging "op het niveau van uitsterven".

13 maart 2024

In een rapport dat in opdracht van de Amerikaanse overheid is opgesteld, staat dat er nieuwe AI-veiligheidsmaatregelen en -beleid nodig zijn om te voorkomen dat de menselijke soort "met uitsterven wordt bedreigd".

Het rapport, dat op aanvraag beschikbaar is, is opgesteld door Gladstone AI, een bedrijf dat in 2022 is opgericht en zich richt op het adviseren van Amerikaanse overheidsdepartementen over kansen en risico's van AI. Het rapport, getiteld "An Action Plan to Increase the Safety and Security of Advanced AI", nam een jaar in beslag en werd gefinancierd met $250.000 aan federaal geld.

Het rapport richt zich op catastrofale risico's van geavanceerde AI en stelt een uitgebreid actieplan voor om deze risico's te beperken. De auteurs zijn het duidelijk niet eens met Yann LeCun's meer laissez-faire kijk op AI-bedreigingen.

Het rapport zegt: "De opkomst van geavanceerde AI en AGI [kunstmatige algemene intelligentie] heeft de potentie om de wereldwijde veiligheid te destabiliseren op manieren die doen denken aan de introductie van kernwapens."

De twee belangrijkste risicocategorieën die het oproept zijn de opzettelijke bewapening van AI en de onbedoelde gevolgen van een AGI die vreemd gaat.

Om dit te voorkomen geeft het rapport een actieplan bestaande uit vijf inspanningslijnen, of LOE's, die de Amerikaanse overheid moet invoeren.

Dit is de korte versie:

LOE1 - Een AI-waarnemingscentrum oprichten om het AI-landschap beter te kunnen monitoren. Een taskforce oprichten om regels op te stellen voor verantwoorde AI-ontwikkeling en -implementatie. Beperk de toeleveringsketen om conformiteit van internationale AI-spelers te stimuleren.

LOE2 - De paraatheid voor geavanceerde AI-incidentrespons vergroten. Coördinatie van werkgroepen van verschillende instanties, AI-onderwijs van de overheid, een kader voor vroegtijdige waarschuwing voor het detecteren van opkomende AI-bedreigingen en op scenario's gebaseerde rampenplannen.

LOE3 - AI-laboratoria zijn meer gericht op AI-ontwikkeling dan op AI-veiligheid. De Amerikaanse overheid moet geavanceerd AI-veiligheids- en -beveiligingsonderzoek financieren, ook op het gebied van AGI-schaalbare afstemming.

Veiligheids- en beveiligingsnormen ontwikkelen voor verantwoorde AI-ontwikkeling en -implementatie.

LOE4 - Een "AI-regelgevend agentschap met regelgevings- en vergunningsbevoegdheden" oprichten.

Een kader voor civiele en strafrechtelijke aansprakelijkheid opstellen om "onherstelbare gevolgen op WMD-schaal" te voorkomen, waaronder "noodbevoegdheden om snel te kunnen reageren op snel veranderende dreigingen".

LOE5 - Een stelsel van AI-waarborgen vastleggen in de internationale wetgeving en de toeleveringsketen beveiligen. Streven naar "internationale consensus" over AI-risico's met een AI-verdrag dat wordt afgedwongen door de VN of een "internationaal AI-agentschap".

Samengevat kan AI heel gevaarlijk zijn, dus we hebben veel wetten nodig om het te controleren.

Het rapport zegt dat geavanceerde open-source modellen een slecht idee zijn en dat de Amerikaanse overheid zou moeten overwegen om het illegaal te maken om de gewichten van AI-modellen vrij te geven op straffe van gevangenisstraf.

Als je dat een beetje alarmistisch en zwaarwichtig vindt klinken, dan ben je niet de enige. Het rapport is bekritiseerd vanwege het gebrek aan wetenschappelijke nauwkeurigheid.

Voorstanders van open source zoals William Falcon, CEO van Lightning AI, waren vooral kritisch over de algemene verklaringen over de gevaren van open modellen.

De waarheid over de risico's van geavanceerde AI voor de mensheid ligt waarschijnlijk ergens tussen "We gaan allemaal dood!" en "Je hoeft je geen zorgen te maken".

Pagina 33 van een AI-enquête waarnaar in het rapport wordt verwezen geeft een aantal interessante voorbeelden van hoe AI-modellen het systeem bespelen en operators misleiden om het doel te bereiken waarvoor ze ontworpen zijn om te optimaliseren.

Als AI-modellen al gebruik maken van mazen in de wet om een doel te bereiken, is het moeilijk om de mogelijkheid af te wijzen dat toekomstige superslimme AI-modellen hetzelfde doen. En tegen welke prijs?

U kunt de samenvatting van de rapporteer hier.

Doe mee met de toekomst


SCHRIJF JE VANDAAG NOG IN

Duidelijk, beknopt, uitgebreid. Krijg grip op AI-ontwikkelingen met DailyAI

Eugene van der Watt

Eugene heeft een achtergrond in elektrotechniek en houdt van alles wat met techniek te maken heeft. Als hij even pauzeert van het consumeren van AI-nieuws, kun je hem aan de snookertafel vinden.

×

GRATIS PDF EXCLUSIEF
Blijf voorop met DailyAI

Meld je aan voor onze wekelijkse nieuwsbrief en ontvang exclusieve toegang tot DailyAI's nieuwste eBook: 'Mastering AI Tools: Your 2024 Guide to Enhanced Productivity'.

* Door u aan te melden voor onze nieuwsbrief accepteert u onze Privacybeleid en onze Algemene voorwaarden