Enligt en rapport som tagits fram på uppdrag av den amerikanska regeringen behövs nya säkerhetsåtgärder och policyer för AI för att förhindra ett "utrotningshot mot den mänskliga arten".
Rapporten, som är tillgänglig på begäran, sammanställdes av Gladstone AI, ett företag som grundades 2022 med fokus på att ge råd till amerikanska myndigheter om möjligheter och risker med AI. Rapporten, med titeln "An Action Plan to Increase the Safety and Security of Advanced AI", tog ett år att färdigställa och finansierades med $250.000 av federala pengar.
Rapporten fokuserar på katastrofala risker från avancerad AI och föreslår en omfattande handlingsplan för att mildra dem. Författarna delar uppenbarligen inte Yann LeCuns mer laissez-faire-betonade syn på AI-hot.
I rapporten står det: "Framväxten av avancerad AI och AGI [artificiell allmän intelligens] har potential att destabilisera den globala säkerheten på ett sätt som påminner om införandet av kärnvapen."
De två huvudsakliga riskkategorierna som tas upp är avsiktlig vapenanvändning av AI och de oavsiktliga konsekvenserna av att en AGI blir oseriös.
För att förhindra att detta händer innehåller rapporten en handlingsplan bestående av fem insatsområden som den amerikanska regeringen måste införa.
Här är den korta versionen:
LOE1 - Inrätta ett AI-observatorium för bättre övervakning av AI-landskapet. Inrätta en arbetsgrupp för att fastställa regler för ansvarsfull AI-utveckling och -användning. Använda restriktioner i leveranskedjan för att få internationella aktörer inom AI-industrin att följa reglerna.
LOE2 - Öka beredskapen för att hantera avancerade AI-incidenter. Samordna arbetsgrupper mellan olika myndigheter, statlig AI-utbildning, ramverk för tidig varning för att upptäcka framväxande AI-hot och scenariobaserade beredskapsplaner.
LOE3 - AI-laboratorier är mer inriktade på AI-utveckling än AI-säkerhet. Den amerikanska regeringen måste finansiera avancerad forskning om AI-säkerhet, bland annat genom AGI-skalningsbar anpassning.
Utveckla säkerhetsstandarder för ansvarsfull utveckling och införande av AI.
LOE4 - Inrätta en "AI-regleringsmyndighet med befogenheter att utfärda regler och licenser".
Upprätta ett ramverk för civilrättsligt och straffrättsligt ansvar för att förhindra "konsekvenser som inte går att återställa i stor skala", inklusive "befogenheter i nödsituationer för att möjliggöra snabb respons på snabbrörliga hot".
LOE5 - Inrätta ett system för skyddsåtgärder mot AI i internationell rätt och säkra leveranskedjan. Skapa "internationellt samförstånd" om AI-risker genom ett AI-avtal som verkställs av FN eller en "internationell AI-organisation".
Sammanfattningsvis kan AI vara mycket farligt, så vi behöver en hel del lagar för att kontrollera det.
I rapporten sägs att avancerade modeller med öppen källkod är en dålig idé och att den amerikanska regeringen bör överväga att göra det olagligt att släppa AI-modellernas vikter under straffansvar.
Om du tycker att det låter lite alarmistiskt och hårdhänt är du inte ensam. Rapporten har fått en del kritik för sin brist på vetenskaplig stringens.
om du undrar hur allvarligt man ska ta den senaste rapporten pic.twitter.com/Uy47sTmE0Z
- xlr8harder (@xlr8harder) 12 mars 2024
Förespråkare för öppen källkod som William Falcon, VD för Lightning AI, var särskilt kritiska till de allmänna uttalandena om farorna med öppna modeller.
Farenheight 451 men för modellvikter...
Enligt TIME kommer AI med öppen källkod att orsaka en "utrotningshändelse för människor" 🙄
först och främst, mycket dumt påstående. men om du verkligen vill sätta på dig din tennhatt, är nära källa AI mer sannolikt att orsaka dettahttps://t.co/x4bctSjamZ pic.twitter.com/PYuwnoIbda
- William Falcon ⚡️ (@_willfalcon) 12 mars 2024
Sanningen om de risker som avancerad AI utgör för mänskligheten ligger förmodligen någonstans mellan "Vi kommer alla att dö!" och "Det finns ingen anledning att oroa sig".
Sida 33 av en AI-undersökning som refereras till i rapporten ger några intressanta exempel på hur AI-modeller spelar med systemet och lurar operatörer att nå det mål som de är utformade för att optimera för.
När AI-modeller redan utnyttjar kryphål för att nå ett mål är det svårt att avfärda möjligheten att framtida supersmarta AI-modeller gör samma sak. Och till vilken kostnad?
Du kan läsa sammanfattningen av rapporten rapportera här.