Etter hvert som AI-teknologier blir stadig mer utbredt, blir de også mål for nettkriminelle. Cybersikkerhetsmyndigheter fra Storbritannia og USA har utviklet nye retningslinjer for hvordan man kan gjøre AI sikrere.
Det uttalte målet med retningslinjene er å gjøre det mulig for AI-selskaper å "bygge AI-systemer som fungerer som tiltenkt, er tilgjengelige når det trengs og fungerer uten å avsløre sensitive data til uvedkommende".
I bunn og grunn handler det om hvordan du sørger for at den kunstige intelligensen ikke kan kapres eller overlevere private brukerdata.
Retningslinjene inneholder designprinsipper som bør ligge til grunn for utviklingen av AI-produkter gjennom hele livssyklusen. De fire hovedområdene som tas opp, er oppsummert:
- Sikker design
Vurder risiko og utfør trusselmodellering i designfasen. - Sikker utvikling
Håndter leverandørkjeden, dokumentasjonen og de digitale ressursene på en sikker måte mens du bygger produktet. Hvis du tar usikre snarveier, må du gå tilbake og rette dem opp. - Sikker distribusjon
Når du gir brukere tilgang til produktet ditt, må du sørge for at de ikke kan få tilgang til sensitive deler via API-et eller på andre måter. Distribuer kun etter grundig red teaming og testing. - Sikker drift og vedlikehold
Overvåk produktet ditt, rull ut oppdateringer nøye, og ikke hold det hemmelig når noe går galt.
Retningslinjene inneholder få tekniske detaljer når det gjelder implementering, men det er en god start. I tillegg til Storbritannia og USA har ytterligere 16 land sluttet seg til retningslinjene.
Den fullstendige listen over underskrivere er
Australia, Canada, Chile, Estland, Frankrike, Israel, Italia, Japan, New Zealand, Nigeria, Norge, Polen, Republikken Korea, Singapore, Storbritannia, USA, Tsjekkia, Tyskland og USA.
Kina og Russland, som sannsynligvis er de viktigste kildene til dataangrep på vestlige land.
Retningslinjene er ikke bindende, så landene som har sluttet seg til dokumentet, sier egentlig bare at de mener at dette er noen gode prinsipper for AI-design å følge. Til tross for at Storbritannia går i bresjen for dette arbeidet, har de sagt at de ikke kommer til å håndheve noen ny lovgivning om AI-utvikling i nær fremtid.
Det er i landenes interesse å gjøre AI-produktene sine så sikre som mulig, men om det er mulig eller ikke, gjenstår å se. Nulldagssårbarheter i kommersiell programvare og kommersielle systemer virker som en dagligdags foreteelse.
Med regelmessige rapporter om jailbreaking er det rimelig å forvente at disse nye modellene kan sikres godt nok mot cyberangrep?
De forestilte, eller spådde, farene ved kunstig intelligens er en potensiell fremtidig trussel. De nettkriminelle, som utvilsomt er i gang med å lete etter sårbarheter i AI, er en mer tydelig og nærværende fare.