NIST udgiver artikel om fire mulige typer af generative AI-angreb

6. januar 2024

NIST

Det amerikanske National Institute of Standards and Technology (NIST) har udtrykt bekymring for sikkerheden i prædiktive og generative AI-systemer.

Ifølge Apostol Vassilev, der er datalog ved NIST, er disse teknologier trods fremskridt inden for sikkerhed stadig sårbare over for en række forskellige angreb.

I en samarbejdsdokument med titlen "Adversarial maskinlæring: En taksonomi og terminologi for angreb og afværgeforanstaltninger" Vassilev kategoriserer sammen med kolleger fra Northeastern University og Robust Intelligence de sikkerhedsrisici, som AI-systemer udgør. 

Vassilev sagde: "På trods af de betydelige fremskridt, som AI og maskinlæring har gjort, er disse teknologier sårbare over for angreb, der kan forårsage spektakulære fejl med alvorlige konsekvenser." 

Han advarede også mod enhver virksomhed, der hævder at tilbyde "fuldt sikker AI".

Dette er en del af NIST's initiativ for pålidelig og ansvarlig AIDet er i overensstemmelse med den amerikanske regerings mål for AI-sikkerhed. Den undersøger kontradiktoriske maskinlæringsteknikker med fokus på fire hovedsikkerhedsproblemer: undvigelse, forgiftning, privatliv og misbrugsangreb.

Undvigelsesangreb sker efter udrulning, hvor man ændrer input for at forvirre AI-systemer. For eksempel ved at ændre stopskilte, så autonome køretøjer fejllæser dem som fartgrænseskilte, eller ved at lave vildledende kørebanemarkeringer for at lede køretøjerne på afveje.

Ved forgiftningsangreb indføres korrupte data under træningen. Det kan indebære indlejring af hyppigt upassende sprog i træningsdatasæt, hvilket får en chatbot til at anvende dette sprog i kundeinteraktioner.

Angreb på privatlivets fred har til formål at udtrække følsomme oplysninger om den kunstige intelligens eller dens træningsdata, ofte gennem reverse-engineering-metoder. Det kan indebære, at man bruger en chatbots svar til at finde frem til dens træningskilder og svagheder.

Misbrugsangreb manipulerer legitime kilder, som f.eks. websider, og fodrer AI-systemer med falske oplysninger for at ændre deres funktion. Dette adskiller sig fra forgiftningsangreb, som ødelægger selve træningsprocessen.

Undvigelsesangreb indebærer, at man skaber modstridende eksempler for at narre AI-systemer under udrulningen, som f.eks. at fejlidentificere stopskilte i selvkørende biler. 

Alina Oprea fra Northeastern University, som var involveret i projektet undersøgelse, "De fleste af disse angreb er ret nemme at gennemføre og kræver et minimum af viden om AI-systemet og begrænsede evner hos modstanderen."

NIST kritiseres for links til AI-tænketank

Hver for sig, Der er blevet udtrykt bekymring over et planlagt AI-forskningspartnerskab mellem NIST og RAND Corp.

RAND, der er kendt for sine forbindelser til tech-milliardærer og bevægelse for effektiv altruismespillede en vigtig rådgivende rolle i udformningen af Bekendtgørelse om AI-sikkerhed

Medlemmer af House Committee on Science, Space and Technology, herunder Frank Lucas og Zoe Lofgren, kritiserede den manglende gennemsigtighed i dette partnerskab. 

Udvalgets bekymringer er todelt: For det første sætter de spørgsmålstegn ved, hvorfor der ikke var en konkurrencepræget proces i forbindelse med udvælgelsen af RAND til denne forskning i AI-sikkerhed. 

Når regeringsorganer som NIST giver forskningsbevillinger, giver de normalt forskellige organisationer mulighed for at ansøge, hvilket sikrer en fair udvælgelsesproces. Men i dette tilfælde ser det ud til, at RAND blev valgt uden en sådan proces.

For det andet er der en vis uro omkring RAND's fokus på AI-forskning. RAND har været involveret i studier af AI og biosikkerhed og har for nylig modtaget betydelige midler til dette arbejde fra kilder, der er tæt knyttet til tech-industrien. 

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Sam Jeans

Sam er videnskabs- og teknologiforfatter og har arbejdet i forskellige AI-startups. Når han ikke skriver, kan han finde på at læse medicinske tidsskrifter eller grave i kasser med vinylplader.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser