Nightshade, de tool voor gegevensvergiftiging van de Universiteit van Chicago, werd binnen vijf dagen na zijn debuut op 18 januari 2024 meer dan 250.000 keer gedownload.
Nightshade is ontworpen om beeldend kunstenaars te helpen in de strijd tegen ongeautoriseerd gebruik van hun werk door AI-modellen. Nightshade biedt een nieuwe aanpak door modellen te "vergiftigen", waardoor hun vermogen om te leren van de beelden waarop ze getraind zijn effectief wordt verstoord.
Dit proces werkt door afbeeldingen subtiel te wijzigen op pixelniveauwaardoor ze er anders uitzien dan AI-modellen zonder afbreuk te doen aan hun visuele integriteit voor het menselijk oog.
Als een AI-model wordt getraind op vergiftigde afbeeldingen, worden de uitkomsten gebrekkig, waardoor kunstenaars op de lange termijn effectief worden beschermd tegen dataschrapen.
AI-ontwikkelaars zullen willen voorkomen dat ze hun modellen beschadigen door te trainen op vergiftigde afbeeldingen.
Ze zullen een oplossing bedenken of hun dataschrappraktijken aanpassen om te voorkomen dat auteursrechtelijk beschermde werken worden vergiftigd.
Nightshade werkt het beste als het op schaal wordt gebruikt - hoe meer vergiftigde afbeeldingen in een AI-model terechtkomen, hoe sterker de impact.
Als, in theorie, elke afbeelding in een dataset vergiftigd zou zijn, dan zou het AI-model moeite hebben om iets coherents te genereren - de output zou een haperende puinhoop zijn.
Op een lager niveau manipuleren vergiftigde afbeeldingen het model om verkeerde associaties te leren, wat betekent dat een prompt van een "kat op een wolk" iets kan opleveren dat lijkt op "een handtas in een veld".
Hoewel AI-bedrijven al enorme hoeveelheden gegevens tot hun beschikking hebben, zullen modellen uiteindelijk het contact met de werkelijkheid verliezen als ze er niet in slagen om nieuwe, eigentijdse datasets op te bouwen.
Ben Zhao, de projectleider en professor computerwetenschappen aan de universiteit, toonde zich verbaasd over de ontvangst van de tool en zei tegen VentureBeat"Ik heb het nog steeds onderschat. De respons overtreft gewoon alles wat we ons hadden voorgesteld."
Dit kwam terug in een verklaring van het team op social media, waarin de ongekende vraag werd benadrukt: "De vraag naar Nightshade is ongekend", zeiden ze, waarbij ze opmerkten dat de vloedgolf van wereldwijde downloads tijdelijk de netwerkinfrastructuur van de universiteit had overspoeld, waarvan ze aanvankelijk dachten dat het een cyberaanval kon zijn.
De vraag naar nachtschade is enorm. De wereldwijde aanvragen hebben onze campusnetwerkverbinding verzadigd. (Geen dos-aanval, alleen legitieme downloads). We voegen twee snelle mirror links toe voor de binaries van nightshade.
Winnen: https://t.co/rodLkW0ivK
Mac: https://t.co/mEzciopGAE- Glaze bij UChicago (@TheGlazeProject) 20 januari 2024
De tool is de laatste in een reeks van inspanningen van het team, na Glaze, een andere tool gericht op het misleiden van AI-modellen over de stijl van een kunstwerk. De ontwikkelaars onderzoeken momenteel manieren om Nightshade en Glaze te integreren en zo een gelaagde verdediging te bieden voor digitale inhoud.
Nightshade is behoorlijk complex en vraagt veel van je bronnen. Je hebt er een stevige computer voor nodig.
Het vergiftigen van meerdere afbeeldingen is ook tijdrovend, maar als het eenmaal gedaan is, is het gedaan. De gebruikersinterface van Nightshade is niet echt in het oog springend, maar wel behoorlijk intuïtief. Het leidt gebruikers door het proces met eenvoudige instellingen en rendert output binnen een tijdsbestek van 30 tot 180 minuten, afhankelijk van de gekozen parameters.
Kunstenaars en tech-enthousiastelingen gebruiken de tool, en sommigen pleiten voor het wijdverbreide gebruik van Nightshade op alle persoonlijke digitale content om de datapool voor AI-modellen te verdunnen. Kracht in getallen, zoals ze zeggen.
De terugslag van kunstenaars De protesten tegen AI-ontwikkelaars die gegevens uit auteursrechten gebruiken zijn dit jaar enorm geweest, waarbij artiesten uit alle hoeken van het creatieve spectrum zich hebben verenigd op X en andere sociale mediaplatforms, gehoor gevend aan de oproep van voorstanders als Reid Southen en Jon Lam.
250K downloads voor Nightshade! Laten we Shade/Glaze en uploaden. Downloaden is slechts de eerste stap! Gefeliciteerd @TheGlazeProject
download hier! Begin NU met het vergiftigen van je kunst!https://t.co/Y45iGlF6cyhttps://t.co/uiGfBVwFRu
- Jon Lam #CreateDontScrape (@JonLamArt) 30 januari 2024
AI-ontwikkelaars moeten zich niet alleen zorgen maken over artiesten - ze vechten ook tegen een reeks van rechtszaken over auteursrecht en vechtend toenemende energievraag en dreigende tekorten aan halfgeleiders.
Hoewel het gebruik van Nightshade nog steeds ingewikkeld is, zijn er plannen om het te integreren met de sociale en portfoliotoepassing Cara, die momenteel in open bèta is.
Uiteindelijk zou Nightshade volledig in de cloud gehost kunnen worden, waardoor het zeer toegankelijk wordt.
Terwijl het digitale landschap blijft evolueren, vertegenwoordigen tools als Nightshade een technische oplossing en een symbool van de voortdurende strijd om controle en respect in het AI-tijdperk.
Dit is weer zo'n 'AI-race' in een sector die op dit moment onder spanning staat.