VK en VS ontwikkelen nieuwe wereldwijde richtlijnen voor AI-beveiliging

27 november 2023

Nu AI-technologieën op grote schaal worden ingezet, worden ze ook een doelwit voor cybercriminelen. Cyberbeveiligingsinstanties uit het VK en de VS hebben nieuwe richtlijnen ontwikkeld om AI veiliger te maken.

Het verklaarde doel van de richtlijnen is om AI-bedrijven in staat te stellen "AI-systemen te bouwen die functioneren zoals bedoeld, beschikbaar zijn wanneer dat nodig is en werken zonder gevoelige gegevens aan onbevoegde partijen te openbaren."

Kortom, hoe zorg je ervoor dat je AI niet kan worden gekaapt of privégegevens van gebruikers kan doorgeven.

De richtlijnen geven een opsomming van ontwerpprincipes die de ontwikkeling van AI-producten gedurende de hele levenscyclus moeten sturen. De vier belangrijkste gebieden die aan bod komen, zijn samengevat:

  1. Veilig ontwerp
    Beoordeel risico's en maak dreigingsmodellen tijdens de ontwerpfase.
  2. Veilige ontwikkeling
    Beheer je toeleveringsketen, documentatie en digitale middelen op een veilige manier tijdens het bouwen van je product. Als je onveilige binnenwegen neemt, ga dan terug en herstel ze.
  3. Veilige inzet
    Als je gebruikers toegang geeft tot je product, zorg er dan voor dat ze geen toegang kunnen krijgen tot gevoelige onderdelen via de API of andere middelen. Pas implementeren na rigoureus red teaming en testen.
  4. Veilige bediening en onderhoud
    Monitor je product, rol updates zorgvuldig uit en houd het niet geheim als er iets misgaat.

De richtlijnen bevatten weinig technische details over de implementatie, maar het is een goed begin. Naast het VK en de VS hebben nog eens 16 landen de richtlijnen onderschreven.

De volledige lijst van ondertekenaars is:
Australië, Canada, Chili, Tsjechië, Estland, Frankrijk, Duitsland, Israël, Italië, Japan, Nieuw-Zeeland, Nigeria, Noorwegen, Polen, Republiek Korea, Singapore, Verenigd Koninkrijk, Verenigde Staten van Amerika.

Opvallend afwezig op de lijst zijn China en Rusland, waarschijnlijk de belangrijkste bronnen van cyberaanvallen op westerse landen.

De richtlijnen zijn niet-bindend, dus de landen die het document hebben onderschreven, zeggen eigenlijk alleen maar 'We denken dat dit een aantal goede AI-ontwerpprincipes zijn om je aan te houden'. Ondanks het feit dat het Verenigd Koninkrijk voorop loopt in deze inspanningen, heeft het ook gezegd dat het in de nabije toekomst geen nieuwe wetgeving voor AI-ontwikkeling zal afdwingen.

Het is in het belang van landen om hun AI-producten zo veilig mogelijk te maken, maar of dat mogelijk is, valt nog te bezien. Zero-day kwetsbaarheden in commerciële software en systemen lijken aan de orde van de dag.

Met regelmatige rapporten over jailbreaken exploits van AI-systemen, is het dan redelijk om te verwachten dat deze nieuwe modellen goed beveiligd kunnen worden tegen cyberaanvallen?

De ingebeelde of voorspelde gevaren van AI zijn een potentiële toekomstige bedreiging. De cybercriminelen, die ongetwijfeld op dit moment bezig zijn met het onderzoeken van AI-kwetsbaarheden, zijn een duidelijker en aanweziger gevaar.

Doe mee met de toekomst


SCHRIJF JE VANDAAG NOG IN

Duidelijk, beknopt, uitgebreid. Krijg grip op AI-ontwikkelingen met DailyAI

Eugene van der Watt

Eugene heeft een achtergrond in elektrotechniek en houdt van alles wat met techniek te maken heeft. Als hij even pauzeert van het consumeren van AI-nieuws, kun je hem aan de snookertafel vinden.

×

GRATIS PDF EXCLUSIEF
Blijf voorop met DailyAI

Meld je aan voor onze wekelijkse nieuwsbrief en ontvang exclusieve toegang tot DailyAI's nieuwste eBook: 'Mastering AI Tools: Your 2024 Guide to Enhanced Productivity'.

* Door u aan te melden voor onze nieuwsbrief accepteert u onze Privacybeleid en onze Algemene voorwaarden