Enligt en amerikansk rapport utgör AI ett "hot på utrotningsnivå"

13 mars 2024

Enligt en rapport som tagits fram på uppdrag av den amerikanska regeringen behövs nya säkerhetsåtgärder och policyer för AI för att förhindra ett "utrotningshot mot den mänskliga arten".

Rapporten, som är tillgänglig på begäran, sammanställdes av Gladstone AI, ett företag som grundades 2022 med fokus på att ge råd till amerikanska myndigheter om möjligheter och risker med AI. Rapporten, med titeln "An Action Plan to Increase the Safety and Security of Advanced AI", tog ett år att färdigställa och finansierades med $250.000 av federala pengar.

Rapporten fokuserar på katastrofala risker från avancerad AI och föreslår en omfattande handlingsplan för att mildra dem. Författarna delar uppenbarligen inte Yann LeCuns mer laissez-faire-betonade syn på AI-hot.

I rapporten står det: "Framväxten av avancerad AI och AGI [artificiell allmän intelligens] har potential att destabilisera den globala säkerheten på ett sätt som påminner om införandet av kärnvapen."

De två huvudsakliga riskkategorierna som tas upp är avsiktlig vapenanvändning av AI och de oavsiktliga konsekvenserna av att en AGI blir oseriös.

För att förhindra att detta händer innehåller rapporten en handlingsplan bestående av fem insatsområden som den amerikanska regeringen måste införa.

Här är den korta versionen:

LOE1 - Inrätta ett AI-observatorium för bättre övervakning av AI-landskapet. Inrätta en arbetsgrupp för att fastställa regler för ansvarsfull AI-utveckling och -användning. Använda restriktioner i leveranskedjan för att få internationella aktörer inom AI-industrin att följa reglerna.

LOE2 - Öka beredskapen för att hantera avancerade AI-incidenter. Samordna arbetsgrupper mellan olika myndigheter, statlig AI-utbildning, ramverk för tidig varning för att upptäcka framväxande AI-hot och scenariobaserade beredskapsplaner.

LOE3 - AI-laboratorier är mer inriktade på AI-utveckling än AI-säkerhet. Den amerikanska regeringen måste finansiera avancerad forskning om AI-säkerhet, bland annat genom AGI-skalningsbar anpassning.

Utveckla säkerhetsstandarder för ansvarsfull utveckling och införande av AI.

LOE4 - Inrätta en "AI-regleringsmyndighet med befogenheter att utfärda regler och licenser".

Upprätta ett ramverk för civilrättsligt och straffrättsligt ansvar för att förhindra "konsekvenser som inte går att återställa i stor skala", inklusive "befogenheter i nödsituationer för att möjliggöra snabb respons på snabbrörliga hot".

LOE5 - Inrätta ett system för skyddsåtgärder mot AI i internationell rätt och säkra leveranskedjan. Skapa "internationellt samförstånd" om AI-risker genom ett AI-avtal som verkställs av FN eller en "internationell AI-organisation".

Sammanfattningsvis kan AI vara mycket farligt, så vi behöver en hel del lagar för att kontrollera det.

I rapporten sägs att avancerade modeller med öppen källkod är en dålig idé och att den amerikanska regeringen bör överväga att göra det olagligt att släppa AI-modellernas vikter under straffansvar.

Om du tycker att det låter lite alarmistiskt och hårdhänt är du inte ensam. Rapporten har fått en del kritik för sin brist på vetenskaplig stringens.

Förespråkare för öppen källkod som William Falcon, VD för Lightning AI, var särskilt kritiska till de allmänna uttalandena om farorna med öppna modeller.

Sanningen om de risker som avancerad AI utgör för mänskligheten ligger förmodligen någonstans mellan "Vi kommer alla att dö!" och "Det finns ingen anledning att oroa sig".

Sida 33 av en AI-undersökning som refereras till i rapporten ger några intressanta exempel på hur AI-modeller spelar med systemet och lurar operatörer att nå det mål som de är utformade för att optimera för.

När AI-modeller redan utnyttjar kryphål för att nå ett mål är det svårt att avfärda möjligheten att framtida supersmarta AI-modeller gör samma sak. Och till vilken kostnad?

Du kan läsa sammanfattningen av rapporten rapportera här.

Bli en del av framtiden


PRENUMERERA IDAG

Tydlig, kortfattad och heltäckande. Få grepp om AI-utvecklingen med DagligaAI

Eugene van der Watt

Eugene kommer från en bakgrund som elektronikingenjör och älskar allt som har med teknik att göra. När han tar en paus från att konsumera AI-nyheter hittar du honom vid snookerbordet.

×

GRATIS PDF EXKLUSIV
Ligg steget före med DailyAI

Registrera dig för vårt veckovisa nyhetsbrev och få exklusiv tillgång till DailyAI:s senaste e-bok: "Mastering AI Tools: Din 2024-guide till förbättrad produktivitet".

*Genom att prenumerera på vårt nyhetsbrev accepterar du vår Integritetspolicy och våra Villkor och anvisningar