Microsoft har rapporteret, at deres AI-teknologier er blevet misbrugt af statssponsorerede hackere fra Rusland, Kina og Iran.
Microsoft samarbejdede med OpenAI om at observere aktiviteter hos grupper med tilknytning til den russiske militære efterretningstjeneste, Irans revolutionsgarde og de kinesiske og nordkoreanske regeringer, og de brugte avancerede AI-værktøjer til at forfine deres hackingstrategier og skabe overbevisende vildledende budskaber.
Som en del af Microsoft og OpenAI's forskningI stedet forstyrrede de fem statsstøttede ondsindede gruppers aktiviteter ved at afbryde deres adgang til OpenAI's tjenester.
De omfatter to aktører med tilknytning til Kina, Charcoal Typhoon og Salmon Typhoon; Crimson Sandstorm fra Iran; Emerald Sleet, der er knyttet til Nordkorea; og Forest Blizzard, der er forbundet med Rusland.
Disse grupper udnyttede OpenAI's tjenester til opgaver som at søge efter open source-information, oversættelse, identificere kodningsfejl og udføre grundlæggende kodningsopgaver. Mere specifikt:
- Charcoal Typhoon brugte OpenAI's tjenester til at undersøge virksomheder og cybersikkerhedsværktøjer, debugge kode, generere scripts og skabe phishing-indhold.
- Salmon Typhoon brugte OpenAI's tjenester til at oversætte tekniske dokumenter, indsamle efterretninger om forskellige agenturer, hjælpe med kodning og forske i stealth-teknikker.
- Crimson Sandstorm brugte OpenAI's tjenester til at understøtte scripting i app- og webudvikling, udarbejde spear-phishing-indhold og udforske undvigelsesmetoder.
- Emerald Sleet udnyttede OpenAI's tjenester til at identificere forsvarseksperter og organisationer, forstå sårbarheder, hjælpe med grundlæggende scripting og forberede phishing-materiale.
- Forest Blizzard brugte primært OpenAI's tjenester til open source-forskning i satellit- og radarteknologier og til scripting-assistance.
Det faktum, at internationale trusselsaktører bruger OpenAI's teknologi, illustrerer AI's dobbelte anvendelsesmuligheder.
Trusselsaktører vælger bevidst OpenAI's modeller i stedet for at udvikle deres egne. Det er billigere, hurtigere og mere effektivt. Suveræne open source-værktøjer er dog sandsynligvis på vej.
Tom Burt, Microsofts vicepræsident for kundesikkerhed, sagde om resultaterne: "Uanset om der er tale om en overtrædelse af loven eller en overtrædelse af servicevilkårene, ønsker vi bare ikke, at de aktører, vi har identificeret - som vi sporer og ved er trusselsaktører af forskellig art - skal have adgang til denne teknologi."
Microsoft forbyder enhver AI-applikation eller workload, der hostes på Azure, for disse statsstøttede grupper. Biden-administrationen anmodede for nylig om, at teknologivirksomheder rapportere visse udenlandske brugere af cloud-teknologi.
Kina svarede via den amerikanske ambassades talsmand Liu Pengyu, som fordømte beskyldningerne som ubegrundede og talte for en ansvarlig anvendelse af AI-teknologier til gavn for menneskeheden.
Kina har samarbejdet med USA om AI-sikkerhed bag lukkede døremen måske af ren og skær nødvendighed snarere end af lyst eller ønske.
Dette er den seneste i en række rapporter med cyberkriminalitetstema fra Microsoft i de seneste måneder, herunder en sidste år, der diskuterede AI-genereret propaganda, der stammer fra Kina og Nordkorea.
Det skal dog siges, at AI-trusler findes overalt. Deep fake-svindel stiger kraftigt i USA, Storbritannien og andre vestlige og europæiske lande, ligesom i Østen.
Microsoft sporer nu over 300 unikke trusselsaktører, herunder nationalstatslige aktører og ransomware-grupper, der udnytter AI til at forbedre deres forsvar og forstyrre ondsindede aktiviteter.
AI-cybertrusler er på fremmarch, og faktum er, at de er internationale og svære at dæmme op for.