Technologiebedrijven over de hele wereld verplichten zich tot nieuwe vrijwillige regels

21 mei 2024

  • 16 internationale techbedrijven hebben een nieuw veiligheidsraamwerk geïmplementeerd
  • Dit komt nu vooraanstaande onderzoekers waarschuwen voor de potentiële "extreme risico's" van AI
  • Tijdens de AI Safety Summit in Seoul hebben 10 landen een AI-veiligheidsnetwerk opgezet
AI-veiligheid

Toonaangevende AI-bedrijven hebben ingestemd met een nieuwe reeks vrijwillige veiligheidstoezeggingen, aangekondigd door de Britse en Zuid-Koreaanse overheid voorafgaand aan een tweedaagse AI-top in Seoul.

16 techbedrijven hebben zich aangesloten bij het raamwerk, waaronder AmazonGoogle, Meta, Microsoft, OpenAIxAI en Zhipu AI.

Het is het eerste raamwerk dat is overeengekomen door bedrijven in Noord-Amerika, Europa, het Midden-Oosten (The Technology Innovation Institute) en Azië, waaronder China (Zhipu AI). 

Bedrijven beloven onder andere "helemaal geen model te ontwikkelen of te implementeren" als ernstige risico's niet kunnen worden beheerst.

Bedrijven zijn ook overeengekomen om te publiceren hoe ze de risico's van AI-modellen zullen meten en beperken.

De nieuwe verplichtingen komen nadat vooraanstaande AI-onderzoekers, waaronder Yoshua Bengio, Geoffrey Hinton, Andrew Yao en Yuval Noah Harari, een papier in Wetenschap genaamd Beheer van extreme AI-risico's te midden van snelle vooruitgang.

In dat document werden verschillende aanbevelingen gedaan die als leidraad dienden voor het nieuwe veiligheidskader:

  • Toezicht en eerlijkheid: Methoden ontwikkelen om ervoor te zorgen dat AI-systemen transparant zijn en betrouwbare resultaten opleveren.
  • Robuustheid: Ervoor zorgen dat AI-systemen zich voorspelbaar gedragen in nieuwe situaties.
  • Interpretabiliteit en transparantie: AI-besluitvormingsprocessen begrijpen.
  • Inclusieve AI-ontwikkeling: Het verminderen van vooroordelen en het integreren van diverse waarden.
  • Evaluatie voor gevaarlijke acties: Het ontwikkelen van rigoureuze methoden om AI-capaciteiten te beoordelen en risico's te voorspellen voordat deze worden ingezet.
  • AI-afstemming evalueren: Ervoor zorgen dat AI-systemen overeenstemmen met de beoogde doelen en geen schadelijke doelen nastreven.
  • Risicobeoordelingen: Uitgebreide beoordeling van maatschappelijke risico's in verband met de toepassing van AI.
  • Veerkracht: Een verdediging creëren tegen AI-bedreigingen zoals cyberaanvallen en sociale manipulatie.

Anna Makanju, vicepresident wereldwijde zaken bij OpenAIover de nieuwe aanbevelingen: "Het gebied van AI-veiligheid ontwikkelt zich snel en we zijn bijzonder blij dat we de nadruk van de toezeggingen op het verfijnen van benaderingen naast de wetenschap onderschrijven. We blijven ons inzetten om samen te werken met andere onderzoekslaboratoria, bedrijven en overheden om ervoor te zorgen dat AI veilig is en de hele mensheid ten goede komt."

Michael Sellitto, hoofd internationale zaken bij Anthropiczegt hierover: "De veiligheidsbeloften van Frontier AI onderstrepen het belang van veilige en verantwoordelijke ontwikkeling van grensverleggende modellen. Als een op veiligheid gerichte organisatie hebben we er een prioriteit van gemaakt om strenge beleidsregels te implementeren, uitgebreide red teaming uit te voeren en samen te werken met externe experts om ervoor te zorgen dat onze modellen veilig zijn. Deze toezeggingen zijn een belangrijke stap voorwaarts in het stimuleren van verantwoorde AI-ontwikkeling en -implementatie."

Een ander vrijwillig kader

Dit weerspiegelt de "vrijwillige verbintenissen" die zijn aangegaan op de Witte Huis in juli vorig jaar door Amazon, AnthropicGoogle, Inflection AI, Meta, Microsoft, en OpenAI om een veilige, beveiligde en transparante ontwikkeling van AI-technologie aan te moedigen. 

In deze nieuwe regels staat dat de 16 bedrijven "publieke transparantie" moeten bieden over hun veiligheidsimplementaties, behalve wanneer dit de risico's zou vergroten of gevoelige commerciële informatie zou onthullen die niet in verhouding staat tot de maatschappelijke voordelen.

Rishi Sunak, premier van het Verenigd Koninkrijk, zei: "Het is een wereldprimeur dat zoveel toonaangevende AI-bedrijven uit zoveel verschillende delen van de wereld allemaal instemmen met dezelfde toezeggingen op het gebied van AI-veiligheid." 

Het is een wereldprimeur omdat bedrijven buiten Europa en Noord-Amerika, zoals China's Zhipu.ai, sloot zich erbij aan. 

Vrijwillige toezeggingen voor AI-veiligheid zijn echter al een tijdje in zwang.

Er is weinig risico voor AI-bedrijven om ermee in te stemmen, omdat er geen middelen zijn om ze af te dwingen. Dat geeft ook aan hoe bot ze zijn als het erop aankomt. 

Dan Hendrycks, de veiligheidsadviseur van Elon Musks startup xAI, merkte op dat de vrijwillige verbintenissen zouden helpen om "de basis te leggen voor concrete binnenlandse regelgeving".

Een terechte opmerking, maar volgens sommige vooraanstaande onderzoekers moeten we zelf nog 'de basis leggen' wanneer extreme risico's op de deur kloppen. 

Niet iedereen is het eens over hoe gevaarlijk AI echt ismaar het punt blijft dat het sentiment achter deze kaders nog niet overeenkomt met acties. 

Naties vormen AI-veiligheidsnetwerk

Terwijl deze kleinere top over AI-veiligheid in Seoul, Zuid-Korea, van start gaat, zijn tien landen en de Europese Unie (EU) overeengekomen om een internationaal netwerk van door de overheid gesteunde "AI-veiligheidsinstituten" op te richten.

De "Intentieverklaring van Seoul voor internationale samenwerking op het gebied van AI-veiligheidswetenschap"Bij de overeenkomst zijn landen betrokken als het Verenigd Koninkrijk, de Verenigde Staten, Australië, Canada, Frankrijk, Duitsland, Italië, Japan, Zuid-Korea, Singapore en de EU. 

China ontbrak opvallend genoeg in de overeenkomst. De Chinese overheid nam echter wel deel en het Chinese bedrijf Zhipu.ai ondertekende het hierboven beschreven raamwerk. 

China heeft eerder aangegeven bereid te zijn om samen te werken aan AI-veiligheid en is in "geheime" gesprekken met de US.

Deze kleinere tussentijdse top kwam met minder fanfare dan de eerste, die afgelopen november in het Britse Bletchley Park werd gehouden. 

Verschillende bekende tech-figuren deden echter mee, waaronder Elon Musk, voormalig Google CEO Eric Schmidt en DeepMind oprichter Sir Demis Hassabis.

Meer toezeggingen en discussies zullen de komende dagen bekend worden.

Doe mee met de toekomst


SCHRIJF JE VANDAAG NOG IN

Duidelijk, beknopt, uitgebreid. Krijg grip op AI-ontwikkelingen met DailyAI

Sam Jeans

Sam is een wetenschap- en technologieschrijver die bij verschillende AI-startups heeft gewerkt. Als hij niet aan het schrijven is, leest hij medische tijdschriften of graaft hij door dozen met vinylplaten.

×

GRATIS PDF EXCLUSIEF
Blijf voorop met DailyAI

Meld je aan voor onze wekelijkse nieuwsbrief en ontvang exclusieve toegang tot DailyAI's nieuwste eBook: 'Mastering AI Tools: Your 2024 Guide to Enhanced Productivity'.

* Door u aan te melden voor onze nieuwsbrief accepteert u onze Privacybeleid en onze Algemene voorwaarden