Experter menar att det mest effektiva sättet att garantera AI-säkerhet kan vara att reglera dess "hårdvara" - de chip och datacenter, eller "compute", som driver AI-teknikerna.
I rapporten, som är ett samarbete mellan framstående institutioner som Center of AI Safety (CAIS), Leverhulme Centre for the Future of Intelligence vid University of Cambridge och OpenAI, föreslås ett globalt register för att spåra AI-chip och sätta "compute caps" för att hålla FoU balanserad mellan olika länder och företag.
Detta nya hårdvarucentrerade tillvägagångssätt kan vara effektivt eftersom chip och datacenter är fysiska till sin natur, vilket gör dem lättare att reglera än immateriella data och algoritmer.
Haydn Belfield, en av de ledande författarna från University of Cambridge, förklarar datorkraftens roll i AI FoU och säger: "AI-superdatorer består av tiotusentals nätverksanslutna AI-chips ... som förbrukar dussintals megawatt kraft."
Den rapport, med totalt 19 författare, däribland "AI-gudfadern" Yoshio Bengio, belyser den enorma tillväxten i den datorkraft som AI kräver och konstaterar att de största modellerna nu kräver 350 miljoner gånger mer datorkraft än för tretton år sedan.
Författarna menar att den exponentiella ökningen av efterfrågan på AI-hårdvara ger en möjlighet att förhindra att centralisering och AI går över styr. Med tanke på vansinnig energiförbrukning i vissa datacenterkan det också minska AI:s växande påverkan på energinäten.
Dra paralleller med kärnkraftsreglering, som andra, inklusive OpenAI:s VD Sam Altman, har använts som exempel för att reglera AII rapporten föreslås politiska åtgärder för att öka den globala synligheten för AI-beräkningar, fördela beräkningsresurser för samhällsnytta och genomdriva begränsningar av datorkraft för att minska riskerna.
Professor Diane Coyle, en annan medförfattare, pekar på fördelarna med hårdvaruövervakning för att upprätthålla en konkurrenskraftig marknad, säga, "Att övervaka hårdvaran skulle vara till stor hjälp för konkurrensmyndigheterna när det gäller att kontrollera de största teknikföretagens marknadsmakt och därmed öppna upp för mer innovation och nya aktörer.
Belfield sammanfattar rapportens viktigaste budskap: "Att försöka styra AI-modeller när de används kan visa sig vara meningslöst, som att jaga skuggor. De som vill införa AI-reglering bör se uppströms till databehandling, källan till den kraft som driver AI-revolutionen."
Multilaterala avtal som detta kräver globalt samarbete, vilket för kärnkraftens del åstadkoms genom storskaliga katastrofer.
En rad incidenter ledde till bildandet av Internationella atomenergiorganet (IAEA) 1957. Sedan var det några få problem fram till Tjornobyl.
Nu kan planering, tillståndsgivning och byggande av en kärnkraftsreaktor ta tio år eller längre eftersom processen övervakas noggrant vid varje tillfälle. Varje del granskas eftersom nationerna kollektivt förstår riskerna, både individuellt och kollektivt.
Kan vi på samma sätt behöva en betydande katastrof för att AI-säkerhetstankar ska bli verklighet?
När det gäller reglering av hårdvara, vem kommer att leda en central myndighet som begränsar chiptillgången? Vem ska ge mandat för avtalet och kan det genomdrivas?
Och hur förhindrar man att de som har de starkaste leveranskedjorna drar nytta av restriktioner för sina konkurrenter?
Hur blir det med Ryssland, Kina och Mellanöstern?
Det är lätt att begränsa chipleveranserna när Kina förlitar sig på amerikanska tillverkare som Nvidia, men så kommer det inte att förbli. Kina siktar på att bli självförsörjande när det gäller AI-hårdvara under detta årtionde.
Den över 100 sidor långa rapporten ger vissa ledtrådar, och detta verkar vara en väg som är värd att utforska, men det kommer att krävas mer än övertygande argument för att genomföra en sådan plan.