DeepMinds vd jämför AI-risker med klimatkrisen

24 oktober 2023

DeepMind AI

Demis Hassabis, vd för Google DeepMind, menade att riskerna med AI bör tas på lika stort allvar som klimatkrisen och att åtgärderna måste vidtas omedelbart.

Inför Storbritanniens AI Safety Summit, som äger rum den 1-2 november, hävdade Hassabis att världen inte bör vänta med att ta itu med de utmaningar som AI innebär. 

"Vi måste ta riskerna med AI på samma allvar som andra stora globala utmaningar, som klimatförändringarna", sade Hassabis. 

 "Det tog det internationella samfundet för lång tid att samordna ett effektivt globalt svar på detta, och vi lever med konsekvenserna av det nu. Vi har inte råd med samma fördröjning när det gäller AI."

Hassabis hänvisar till FN:s klimatpanel IPCC (Intergovernmental Panel on Climate Change). 

Han och andra har förespråkat ett oberoende internationellt tillsynsorgan för AI, liknande IPCC eller Internationella atomenergiorganet (IAEA) grundades 1957.

År 1955 sade kommissionären Willard F. Libby följande om kärnkraften: "Vår stora risk är att denna stora fördel för mänskligheten kommer att dödas i förtid av onödiga regleringar."

Efter att IAEA bildades inträffade det relativt få kärnkraftskatastrofer fram till Tjernobyl. Vi vet ännu inte hur en "AI-katastrof" skulle kunna se ut. 

Balans mellan fördelar och risker med AI

Samtidigt som Hassabis erkände AI:s omvälvande potential inom områden som medicin och vetenskap, lyfte han också fram de existentiella hot som tekniken utgör, särskilt utvecklingen av superintelligenta system - eller artificiell allmän intelligens (AGI). 

"Jag tror att vi måste börja med något som IPCC, där det är ett vetenskapligt och forskningsmässigt avtal med rapporter, och sedan bygga upp det därifrån", säger Hassabis. 

"Sedan skulle jag så småningom vilja se en motsvarighet till Cern för AI-säkerhet, som forskar kring detta - men internationellt. Och så kanske det en dag finns någon form av motsvarighet till IAEA, som faktiskt granskar de här sakerna."

DeepMind har publicerat ett flertal arbeten om AI-säkerhet, bland annat en teknisk blogg i samarbete med flera universitet som anger att modeller ska utvärderas för "extrema risker" innan någon träning äger rum. 

DeepMind har också etablerat experimentella bevis för att AI söker upp nya framväxande mål som på ett oförutsägbart sätt avviker från utvecklarnas intentioner - eller "rogue".

Hassabis och representanter från andra stora AI-företag som OpenAI kommer att delta i AI Safety Summit i november. Den brittiska regeringen har släppt schemat för den första dagen av evenemanget.

Bli en del av framtiden


PRENUMERERA IDAG

Tydlig, kortfattad och heltäckande. Få grepp om AI-utvecklingen med DagligaAI

Sam Jeans

Sam är en vetenskaps- och teknikskribent som har arbetat i olika AI-startups. När han inte skriver läser han medicinska tidskrifter eller gräver igenom lådor med vinylskivor.

×

GRATIS PDF EXKLUSIV
Ligg steget före med DailyAI

Registrera dig för vårt veckovisa nyhetsbrev och få exklusiv tillgång till DailyAI:s senaste e-bok: "Mastering AI Tools: Din 2024-guide till förbättrad produktivitet".

*Genom att prenumerera på vårt nyhetsbrev accepterar du vår Integritetspolicy och våra Villkor och anvisningar