Microsoft har rapporterat att företagets AI-teknik missbrukas av statsunderstödda hackare från Ryssland, Kina och Iran.
Microsoft samarbetade med OpenAI för att observera aktiviteter som utfördes av grupper med kopplingar till den ryska militära underrättelsetjänsten, Irans revolutionsgarde och de kinesiska och nordkoreanska regeringarna, och använde avancerade AI-verktyg för att förfina sina hackningsstrategier och skapa övertygande vilseledande meddelanden.
Som en del av Microsofts och OpenAI:s forskningstörde de verksamheten för fem statsunderstödda skadliga grupper genom att avsluta deras tillgång till OpenAI:s tjänster.
Dessa inkluderar två Kina-anknutna aktörer, Charcoal Typhoon och Salmon Typhoon; Crimson Sandstorm från Iran; Emerald Sleet, kopplad till Nordkorea; och Forest Blizzard, associerad med Ryssland.
Dessa grupper utnyttjade OpenAI:s tjänster för uppgifter som att söka information från öppna källor, översätta, identifiera kodningsfel och utföra grundläggande kodningsuppgifter. Mer specifikt:
- Charcoal Typhoon använde OpenAI:s tjänster för att undersöka företag och cybersäkerhetsverktyg, felsöka kod, generera skript och skapa nätfiskeinnehåll.
- Salmon Typhoon använde OpenAI:s tjänster för att översätta tekniska dokument, samla in underrättelser om olika myndigheter, hjälpa till med kodning och undersöka smygteknik.
- Crimson Sandstorm använde OpenAI:s tjänster för skriptstöd i app- och webbutveckling, för att skapa spearphishing-innehåll och för att utforska undvikandemetoder.
- Emerald Sleet utnyttjade OpenAI:s tjänster för att identifiera försvarsexperter och organisationer, förstå sårbarheter, hjälpa till med grundläggande skriptning och förbereda nätfiskematerial.
- Forest Blizzard använde OpenAI:s tjänster främst för forskning om satellit- och radarteknik med öppen källkod och för hjälp med skript.
Det faktum att internationella hotaktörer använder OpenAI:s teknik förkroppsligar AI:s dubbla användningsområden.
Hotaktörer väljer medvetet OpenAI:s modeller i stället för att utveckla sina egna. Det är billigare, snabbare och mer effektivt. Suveräna verktyg med öppen källkod är dock förmodligen på väg.
Tom Burt, Microsofts Vice President for Customer Security, sa om resultaten: "Oavsett om det finns något brott mot lagen eller något brott mot användarvillkoren, vill vi bara inte att de aktörer som vi har identifierat - som vi spårar och vet är hotaktörer av olika slag - ska ha tillgång till den här tekniken."
Microsoft förbjuder alla AI-applikationer eller arbetsbelastningar som hostas på Azure för dessa statsstödda grupper. Biden-administrationen begärde nyligen att teknikföretag rapportera vissa utländska användare av molnteknik.
Kina svarade via den amerikanska ambassadens talesperson Liu Pengyu, som fördömde anklagelserna som ogrundade och förespråkade en ansvarsfull användning av AI-teknik för att gynna mänskligheten.
Kina har samarbetat med FN:s USA om AI-säkerhet bakom stängda dörrarmen kanske av ren nödvändighet snarare än av lust eller önskan.
Detta är den senaste i en rad rapporter med cyberbrotts-tema från Microsoft under de senaste månaderna, inklusive en förra året som diskuterade AI-genererad propaganda som härrörde från Kina och Nordkorea.
Det måste dock sägas att AI-hoten finns överallt. Deep fake-bedrägerier ökar kraftigt i USA, Storbritannien och andra västliga och europeiska länder, precis som i öst.
Microsoft spårar nu över 300 unika hotaktörer, inklusive nationalstatliga aktörer och ransomware-grupper, som utnyttjar AI för att förbättra sina försvar och störa skadliga aktiviteter.
AI-cyberhot ökar, och faktum är att de är internationella och svåra att begränsa.