I takt med att AI-teknik blir allt vanligare blir den också en måltavla för cyberbrottslingar. Cybersäkerhetsmyndigheter från Storbritannien och USA har tagit fram nya riktlinjer för hur AI kan göras säkrare.
Det uttalade syftet med Riktlinjerna är att göra det möjligt för AI-företag att "bygga AI-system som fungerar som avsett, är tillgängliga när de behövs och fungerar utan att avslöja känsliga uppgifter för obehöriga parter".
I grund och botten handlar det om hur du ser till att din AI inte kan kapas eller lämna över användarnas privata data.
Riktlinjerna innehåller designprinciper som bör vägleda utvecklingen av AI-produkter under hela utvecklingslivscykeln. De fyra nyckelområden som behandlas sammanfattas här:
- Säker design
Bedöm risker och gör hotmodellering under designfasen. - Säker utveckling
Hantera din leveranskedja, dokumentation och digitala tillgångar på ett säkert sätt medan du bygger din produkt. Om du tar osäkra genvägar, se till att gå tillbaka och åtgärda dem. - Säker driftsättning
När du ger användare tillgång till din produkt, se till att de inte kan komma åt känsliga delar via API eller på annat sätt. Distribuera endast efter rigorös red teaming och testning. - Säker drift och underhåll
Övervaka din produkt, lansera uppdateringar noggrant och håll det inte hemligt när saker går fel.
Riktlinjerna innehåller inte så många tekniska detaljer när det gäller genomförandet, men det är en bra början. Förutom Storbritannien och USA har ytterligare 16 länder ställt sig bakom riktlinjerna.
Den fullständiga listan över undertecknare är:
Australien, Chile, Estland, Frankrike, Förenade kungariket, Israel, Italien, Japan, Kanada, Nya Zeeland, Nigeria, Norge, Polen, Sydkorea, Singapore, Tjeckien, Tyskland, USA.
Kina och Ryssland, som förmodligen är de viktigaste källorna till cyberattacker på västländer.
Riktlinjerna är inte bindande, så de länder som har ställt sig bakom dokumentet säger egentligen bara "Vi tycker att det här är några bra principer för AI-design att följa". Trots att Storbritannien ligger i framkant när det gäller dessa strävanden har landet sagt att det inte kommer att införa någon ny lagstiftning om AI-utveckling inom den närmaste framtiden.
Det ligger i ländernas intresse att göra sina AI-produkter så säkra som möjligt, men om det är möjligt eller inte återstår att se. Nolldagssårbarheter i kommersiella programvaror och system verkar vara en vardaglig företeelse.
Med regelbundna rapporter om jailbreaking är det rimligt att förvänta sig att dessa nya modeller kan skyddas ordentligt mot cyberattacker?
De föreställda, eller förutspådda, farorna med AI är ett potentiellt framtida hot. Cyberbrottslingarna, som utan tvekan för närvarande undersöker sårbarheter i AI, är en mer tydlig och aktuell fara.