Eksperter mener at den mest effektive måten å sikre AI-sikkerheten på kan være å regulere "maskinvaren" - brikkene og datasentrene, eller "compute", som driver AI-teknologiene.
Rapporten, som er et samarbeid mellom en rekke anerkjente institusjoner, deriblant Center of AI Safety (CAIS), University of Cambridges Leverhulme Centre for the Future of Intelligence og OpenAI, foreslår et globalt register for å spore AI-brikker og sette "compute caps" for å holde FoU balansert på tvers av ulike nasjoner og selskaper.
Denne nye maskinvaresentrerte tilnærmingen kan være effektiv fordi brikker og datasentre er fysiske, noe som gjør dem lettere å regulere enn immaterielle data og algoritmer.
Haydn Belfield, en av hovedforfatterne fra University of Cambridge, forklarer datakraftens rolle i forskning og utvikling av kunstig intelligens slik: "Superdatamaskiner for kunstig intelligens består av titusenvis av nettverkstilkoblede AI-brikker ... som bruker flere titalls megawatt strøm."
Den rapport, med totalt 19 forfattere, inkludert "AI-gudfaren" Yoshio Bengio, fremhever den kolossale veksten i datakraft som kreves av AI, og bemerker at de største modellene nå krever 350 millioner ganger mer databehandling enn de gjorde for tretten år siden.
Forfatterne hevder at den eksponentielle økningen i etterspørselen etter AI-maskinvare gir en mulighet til å forhindre at sentralisering og AI kommer ut av kontroll. Gitt den vanvittig strømforbruk i enkelte datasentrekan det også redusere AIs voksende innvirkning på energinettene.
De trekker paralleller til regulering av kjernekraft, som andre, inkludert OpenAI-sjef Sam Altman, har brukt som eksempel for å regulere AII rapporten foreslås det retningslinjer for å øke den globale synligheten av KI-databehandling, allokere databehandlingsressurser til fordel for samfunnet og håndheve begrensninger på datakraft for å redusere risiko.
Professor Diane Coyle, en annen medforfatter, påpeker fordelene ved maskinvareovervåking for å opprettholde et konkurransedyktig marked, ordtak"Overvåking av maskinvaren vil være til stor hjelp for konkurransemyndighetene når det gjelder å holde markedsmakten til de største teknologiselskapene i sjakk, og dermed åpne opp for mer innovasjon og nye aktører.
Belfield oppsummerer rapportens hovedbudskap slik: "Å forsøke å regulere AI-modeller etter hvert som de tas i bruk, kan vise seg å være nytteløst, som å jage skygger. De som ønsker å etablere AI-regulering, bør se oppstrøms til databehandling, kilden til kraften som driver AI-revolusjonen."
Multilaterale avtaler som dette krever globalt samarbeid, noe som for kjernekraftens del ble skapt gjennom store katastrofer.
En rekke hendelser førte til opprettelsen av Det internasjonale atomenergibyrået (IAEA) i 1957. Deretter var det noen få problemer frem til Tsjernobyl.
I dag kan planlegging, lisensiering og bygging av en atomreaktor ta ti år eller mer, fordi prosessen overvåkes nøye i alle ledd. Hver eneste del blir gransket nøye, fordi nasjonene i fellesskap forstår risikoen, både individuelt og kollektivt.
Kanskje trenger vi på samme måte en betydelig katastrofe for å manifestere AI-sikkerhetstanker i virkeligheten?
Når det gjelder regulering av maskinvare, hvem skal lede et sentralt organ som begrenser tilgangen på brikker? Hvem skal gi mandat til avtalen, og kan den håndheves?
Og hvordan kan man forhindre at de med de sterkeste leverandørkjedene drar nytte av restriksjoner som rammer konkurrentene?
Hva med Russland, Kina og Midtøsten?
Det er lett å begrense chipforsyningen så lenge Kina er avhengig av amerikanske produsenter som Nvidia, men slik vil det ikke være i all evighet. Kina har som mål å være selvforsynt med AI-maskinvare i dette tiåret.
Den over 100 sider lange rapporten gir noen ledetråder, og dette virker som en vei som er verdt å utforske, men Det skal mer til enn overbevisende argumenter for å få vedtatt en slik plan.