I takt med at AI-teknologier bliver udbredt, bliver de også mål for cyberkriminelle. Cybersikkerhedsagenturer fra Storbritannien og USA har udviklet nye retningslinjer for, hvordan man gør AI mere sikker.
Det erklærede mål med Retningslinjerne er at gøre det muligt for AI-virksomheder at "bygge AI-systemer, der fungerer efter hensigten, er tilgængelige, når det er nødvendigt, og fungerer uden at afsløre følsomme data til uautoriserede parter."
Dybest set, hvordan du sikrer, at din AI ikke kan kapres eller udlevere brugernes private data.
Retningslinjerne indeholder designprincipper, der bør styre udviklingen af AI-produkter gennem hele udviklingslivscyklussen. De fire nøgleområder er opsummeret:
- Sikkert design
Vurder risiko og lav trusselsmodellering i designfasen. - Sikker udvikling
Administrer din forsyningskæde, dokumentation og digitale aktiver på en sikker måde, mens du bygger dit produkt. Hvis du tager usikre genveje, skal du sørge for at gå tilbage og rette dem. - Sikker udrulning
Når du giver brugerne adgang til dit produkt, skal du sørge for, at de ikke kan få adgang til følsomme dele via API'en eller på anden måde. Implementer kun efter grundig red teaming og testning. - Sikker drift og vedligeholdelse
Overvåg dit produkt, udrul opdateringer omhyggeligt, og hold det ikke hemmeligt, når noget går galt.
Retningslinjerne indeholder ikke mange tekniske detaljer, hvad angår implementering, men det er en god start. Ud over Storbritannien og USA har yderligere 16 lande tilsluttet sig retningslinjerne.
Den fulde liste over underskrivere er:
Australien, Canada, Chile, Tjekkiet, Estland, Frankrig, Tyskland, Israel, Italien, Japan, New Zealand, Nigeria, Norge, Polen, Republikken Korea, Singapore, Storbritannien, USA.
Det er bemærkelsesværdigt, at Kina og Rusland er fraværende på listen, hvilket sandsynligvis er de mest betydningsfulde kilder til Cyberangreb på vestlige lande.
Retningslinjerne er ikke-bindende, så de lande, der har godkendt dokumentet, siger egentlig bare: "Vi synes, det er nogle gode AI-designprincipper at følge". Og på trods af at Storbritannien går forrest i disse bestræbelser, har landet sagt, at det ikke vil håndhæve nogen ny lovgivning om AI-udvikling i den nærmeste fremtid.
Det er i landenes interesse at gøre deres AI-produkter så sikre som muligt, men om det er muligt eller ej, er endnu uvist. Zero-day-sårbarheder i kommerciel software og systemer virker som en dagligdags begivenhed.
Med regelmæssige rapporter om jailbreaking udnyttelse af AI-systemer, er det så rimeligt at forvente, at disse nye modeller kan sikres ordentligt mod cyberangreb?
De forestillede eller forudsagte farer ved AI er en potentiel fremtidig trussel. De cyberkriminelle, som uden tvivl er i gang med at undersøge AI-sårbarheder, er en mere klar og nærværende fare.