Dataforgiftningsverktøy hjelper kunstnere med å straffe AI-skrapere

24. oktober 2023

AI-kunstpris
Théâtre D'opéra Spatial, skapt med MidJourney, vant en kunstpris i 2022. Kunstneren Jason Matthew Allen sa at han brukte 80 timer på det, selv om noen tviler på det. Kilde: Wikipedia: Wikipedia.

Forskere fra University of Chicago har utviklet et nytt verktøy for å "forgifte" AI-modeller når AI-selskaper inkluderer bilder i datasettene sine uten samtykke.

Selskaper som OpenAI og Meta har blitt utsatt for kritikk og søksmål på grunn av sin omfattende skraping av nettinnhold for å trene opp modellene sine. For at tekst-til-bilde-generatorer som DALL-E eller Midjourney skal være effektive, må de trenes opp på store mengder visuelle data.

En rekke kunstnere har klaget over at disse bildegeneratorene nå kan produsere bilder i deres stil etter å ha scrapet kunsten deres uten samtykke.

Den forskere opprettet Nightshade, et verktøy som legger inn usynlige piksler i et bilde som deretter gjør bildet "giftig" for AI-modeller.

Generativ AI er avhengig av riktig merkede data. Hvis en AI-modell er trent på tusenvis av bilder av katter, og alle bildene er merket med "katt", vet den hvordan en katt skal se ut når du ber den om å generere et bilde av en katt.

Nightshade legger inn data i bildet som ødelegger klassifiseringen av bildet. Et bilde av et slott som er forgiftet av Nightshade, vil for eksempel bli klassifisert som en gammel lastebil. Forskerne fant ut at bruk av så få som 100 bilder rettet mot en enkelt ledetekst var effektivt for å korrumpere en modell.

De genererte bildene blir stadig mer korrupte med mer forgiftet data. Kilde: arXiv

Nightshade er dårlige nyheter for AI-bildegeneratorer

En modell som er påvirket av forgiftet data, kan få inntrykk av at bilder av kaker er hatter, eller at brødristere er håndvesker. I tillegg til å korrumpere det spesifikke ordet som Nightshade er ute etter, infiserer korrupsjonen også bredere begreper. Hvis "hund" blir korrumpert, vil også begreper som "valp" bli korrumpert.

Hvis mange nok kunstnere begynner å bruke Nightshade, kan det føre til at selskapene blir mye mer forsiktige med å innhente samtykke før de tar bilder.

Forskerteamet vil innlemme Nightshade i Glaze-verktøyet de også har utviklet. Glaze forkludrer stilen på et bilde. For eksempel kan en kunstner som ønsker å beskytte stilen på verket sitt, bruke Glaze til å merke det som "impresjonistisk" når det egentlig er "popkunst".

Det faktum at verktøy som Nightshade fungerer så effektivt, understreker en sårbarhet i tekst-til-bilde-generatorer som kan utnyttes av ondsinnede aktører.

Selskaper som OpenAI og Stability AI sier at de vil respektere Fravalg av "ikke skraping som nettsteder kan legge til i robots.txt-filene sine. Hvis bildene som er forgiftet av Nightshade ikke skrapes, forblir modellene upåvirket.

Ondsinnede aktører kan imidlertid forgifte en stor mengde bilder og gjøre dem tilgjengelige for skraping med den hensikt å skade AI-modeller. Den eneste måten å omgå dette på, er med bedre merkingsdetektorer eller menneskelig gjennomgang.

Nightshade vil få kunstnere til å føle seg litt tryggere når det gjelder å legge ut innholdet sitt på nettet, men kan skape alvorlige problemer for AI-bildegeneratorer.

Bli med i fremtiden


ABONNER I DAG

Tydelig, kortfattet og omfattende. Få et grep om AI-utviklingen med DagligAI

Eugene van der Watt

Eugene har bakgrunn som elektroingeniør og elsker alt som har med teknologi å gjøre. Når han tar en pause fra AI-nyhetene, finner du ham ved snookerbordet.

×

GRATIS PDF EKSKLUSIV
Hold deg i forkant med DailyAI

Meld deg på vårt ukentlige nyhetsbrev og få eksklusiv tilgang til DailyAIs nyeste e-bok: "Mastering AI Tools: Din 2024-guide til økt produktivitet".

*Ved å abonnere på vårt nyhetsbrev aksepterer du vår Retningslinjer for personvern og vår Vilkår og betingelser