Experts suggereren dat de meest effectieve manier om de veiligheid van AI te garanderen het reguleren van de "hardware" zou kunnen zijn - de chips en datacenters, of "compute", die AI-technologieën aandrijven.
Het rapport, een samenwerking tussen bekende instituten, waaronder het Center of AI Safety (CAIS), het Leverhulme Centre for the Future of Intelligence van de Universiteit van Cambridge en OpenAI, stelt een wereldwijd register voor om AI-chips te volgen, waarbij "compute caps" worden ingesteld om R&D evenwichtig te verdelen over verschillende landen en bedrijven.
Deze nieuwe hardware-gerichte aanpak zou effectief kunnen zijn vanwege de fysieke aard van chips en datacenters, waardoor ze beter te reguleren zijn dan immateriële gegevens en algoritmen.
Haydn Belfield, een co-lead auteur van de Universiteit van Cambridge, legt de rol van rekenkracht in AI R&D uit: "AI-supercomputers bestaan uit tienduizenden genetwerkte AI-chips... die tientallen megawatts aan energie verbruiken."
De verslag, met in totaal 19 auteurs, waaronder 'AI-godfather' Yoshio Bengio, benadrukt de kolossale groei in rekenkracht die AI nodig heeft en merkt op dat de grootste modellen nu 350 miljoen keer meer rekenkracht vereisen dan dertien jaar geleden.
De auteurs stellen dat de exponentiële toename van de vraag naar AI-hardware een kans biedt om te voorkomen dat centralisatie en AI uit de hand lopen. Gezien de waanzinnig energieverbruik van sommige datacentersHet zou ook de groeiende impact van AI op energienetwerken kunnen verminderen.
Anderen, waaronder OpenAI CEO Sam Altman, trekken parallellen met nucleaire regulering, hebben gebruikt als voorbeeld voor het reguleren van AIHet rapport stelt beleid voor om de wereldwijde zichtbaarheid van AI computing te vergroten, computermiddelen toe te wijzen voor maatschappelijk voordeel en beperkingen op te leggen aan rekenkracht om risico's te beperken.
Professor Diane Coyle, een andere co-auteur, wijst op de voordelen van hardwarebewaking voor het behoud van een concurrerende markt, zegHet monitoren van de hardware zou de mededingingsautoriteiten enorm helpen om de marktmacht van de grootste technologiebedrijven in toom te houden en zo ruimte te maken voor meer innovatie en nieuwkomers.
Belfield vat de belangrijkste boodschap van het rapport als volgt samen: "Proberen om AI-modellen te reguleren terwijl ze worden ingezet, zou wel eens zinloos kunnen blijken te zijn, zoals het najagen van schaduwen. Wie AI wil reguleren moet stroomopwaarts kijken naar computers, de bron van de kracht die de AI-revolutie aandrijft."
Multilaterale overeenkomsten als deze vereisen wereldwijde samenwerking, die voor kernenergie tot stand kwam door grootschalige rampen.
Een reeks incidenten leidde in 1957 tot de oprichting van de Internationale Organisatie voor Atoomenergie (IAEA). Daarna waren er een paar problemen tot Tsjernobyl.
Nu kan het plannen, het afgeven van vergunningen en het bouwen van een kernreactor tien jaar of langer duren omdat het proces op elk moment streng wordt gecontroleerd. Elk onderdeel wordt onder de loep genomen omdat landen collectief de risico's begrijpen, zowel individueel als collectief.
Is er misschien ook een grote ramp nodig om AI-veiligheidsgevoelens werkelijkheid te laten worden?
Wat betreft het reguleren van hardware: wie zal een centraal agentschap leiden dat het aanbod van chips beperkt? Wie gaat de overeenkomst opleggen en kan deze worden gehandhaafd?
En hoe voorkom je dat degenen met de sterkste toeleveringsketens profiteren van beperkingen voor hun concurrenten?
Hoe zit het met Rusland, China en het Midden-Oosten?
Het is makkelijk om de levering van chips te beperken terwijl China afhankelijk is van Amerikaanse fabrikanten zoals Nvidia, maar dit zal niet voor altijd het geval zijn. China wil zelfvoorzienend in termen van AI-hardware in dit decennium.
Het meer dan 100 pagina's tellende rapport geeft een aantal aanwijzingen en dit lijkt de moeite van het onderzoeken waard, hoewel Er is meer nodig dan overtuigende argumenten om zo'n plan door te voeren.