De AI-industrie moet leren van nucleaire veiligheid, vinden experts

6 juni 2023
nucleaire veiligheid

De ontwikkeling van AI is snel gegaan, wat betekent dat de regelgeving een inhaalslag moet maken en dat governance een beetje een bijzaak is.

Er zijn weinig formele processen om de veiligheid van AI te garanderen en onderzoekers zeggen dat het aan de industrie is om daar verandering in te brengen.

Veel AI-leiders en figuren binnen de industrie hebben AI vergeleken met kernenergie. Er zijn veel overeenkomsten - AI groeit snel, vormt een potentieel existentieel risico en wordt gecompliceerd door buitenlandse aangelegenheden, dit keer tussen de opkomende AI-grootmachten VS en China.

Het duurde tientallen jaren voordat nucleaire ingenieurs de bredere wetenschappelijke gemeenschap overtuigden van de veiligheid van kernreactoren. De eerste reactoren werden eind jaren '40 en begin jaren '50 gebouwd en het duurde tot de Amerikaanse Atomic Energy Act van 1954 voordat er enige vorm van regulering kwam. 

De regering van de VS was zich bewust van de risico's van kernenergie, maar de USSR bracht halverwege 1954 hun eerste civiele reactor online en dus verloren ze geen tijd met de bouw van hun eigen reactor. In 1955 zei commissaris Willard F. Libby: "Ons grote gevaar is dat dit grote voordeel voor de mensheid zal worden gedood door onnodige regelgeving".

Klinkt hier iets bekend? Het was vorige maand nog dat OpenAI CEO Sam Altman drong aan op een internationaal orgaan voor AI-veiligheid, zoals de Internationale Organisatie voor Atoomenergie (IAEA), opgericht in 1957. Net als kernenergie is gOverheden over de hele wereld zijn aan het uitzoeken hoe ze de voordelen van AI kunnen behouden en tegelijkertijd de risico's kunnen reguleren. 

De IAEA was een autonoom onderdeel van de VN en heeft nu 174 lidstaten. Na 1957 waren er relatief weinig nucleaire rampen tot Tsjernobyl.

AI moet leren van de geschiedenis van nucleaire veiligheid

Heidy Khlaaf, een technisch directeur bij cyberbeveiligingsadviesbureau Spoor van bitsgebruikt om de veiligheid van kerncentrales te beoordelen en te verifiëren. Ze vertelde onlangs aan MIT dat kerncentrales duizenden documenten nodig hebben om hun veiligheid te certificeren, waarbij wordt ingegaan op de kleinste nuances van elk afzonderlijk onderdeel. 

Na Tsjernobyl is de nucleaire regelgeving extreem streng geworden. Het plannen, vergunnen en bouwen van een kernreactor kan 10 jaar of meer duren, deels omdat het proces zo streng gecontroleerd wordt op elk punt. Khlaaf merkt op dat dit niets te maken heeft met winst - nucleaire veiligheid komt voort uit een echt existentieel risico. 

AI-bedrijven daarentegen rapporteren hun modellen met behulp van eenvoudige 'kaarten' die in wezen functies opsommen. 

Bovendien is de interne werking van het model vaak 'black box', wat betekent dat besluitvormingsprocessen grotendeels worden afgeschermd voor externe waarnemers. 

Zelfs ChatGPT is, in tegenstelling tot OpenAI's naamgenoot, een zwarte doos, en AI-bedrijven hebben al een reputatie opgebouwd als zijnde terughoudend over hun modellen en trainingsgegevens. 

Stel je voor dat kernreactoren een 'zwarte doos' waren en dat hun ontwikkelaars het publiek niet zouden vertellen hoe ze werken? 

Analyse van AI-risico's moet systematisch gebeuren 

Om de risico's te beperken die AI-leiders zoals Altman graag toegeven, moeten bedrijven dieper ingaan op hun traceerbaarheidsstrategieën. Dit houdt rigoureuze controle in vanaf het allereerste begin van het AI-ontwikkelingsproces. 

Khlaaf zegt: "Je moet een systematische manier hebben om de risico's te doorlopen. Het is geen scenario waarbij je gewoon zegt: 'Oh, dit kan gebeuren. Laat me het gewoon opschrijven. 

Op dit moment is er geen vaststaand proces voor AI-risicobeoordeling, maar er zijn wel pogingen gedaan om er een te creëren. 

Bijvoorbeeld, DeepMind publiceerde onlangs een technische blog in samenwerking met verschillende universiteiten, waarin staat dat modellen moeten worden geëvalueerd op "extreme risico's" voordat ze worden getraind. In het document worden twee strategieën voorgesteld:

  1. Het evalueren van de omvang van de 'gevaarlijke capaciteiten' van een model die kunnen worden gebruikt om de veiligheid te bedreigen, invloed uit te oefenen of menselijk toezicht te omzeilen.
  2. Evalueren hoe groot de kans is dat een model schade veroorzaakt, bijvoorbeeld of het risico bestaat dat het zich niet gedraagt zoals bedoeld. 

Toby Shevlane, een van de onderzoekers van het project, zei: "Toonaangevende AI-bedrijven die de grenzen verleggen, hebben de verantwoordelijkheid om alert te zijn op opkomende problemen en deze vroegtijdig te signaleren, zodat we ze zo snel mogelijk kunnen aanpakken."

Als AI moet leren van nucleaire veiligheid, dan is vroegtijdige regulering cruciaal, maar zelfgenoegzaamheid op de lange termijn is dodelijk. Niemand weet hoe een AI-versie van Tsjernobyl of Fukushima eruit zou zien en niemand wil daar achter komen.

Doe mee met de toekomst


SCHRIJF JE VANDAAG NOG IN

Duidelijk, beknopt, uitgebreid. Krijg grip op AI-ontwikkelingen met DailyAI

Sam Jeans

Sam is een wetenschap- en technologieschrijver die bij verschillende AI-startups heeft gewerkt. Als hij niet aan het schrijven is, leest hij medische tijdschriften of graaft hij door dozen met vinylplaten.

×
 
 

GRATIS PDF EXCLUSIEF
Blijf voorop met DailyAI


 

Meld je aan voor onze wekelijkse nieuwsbrief en ontvang exclusieve toegang tot DailyAI's nieuwste eBook: 'Mastering AI Tools: Your 2024 Guide to Enhanced Productivity'.



 
 

* Door u aan te melden voor onze nieuwsbrief accepteert u onze Privacybeleid en onze Algemene voorwaarden