Forskare tränar modell att skapa bilder utan att "se" upphovsrättsskyddat arbete

21 maj 2024

  • Forskare vid University of Texas tränade en bildmodell på korrupta data
  • Trots att bilderna förvrängs och bryts upp fungerar den fortfarande utmärkt
  • Detta visar hur modeller för bildgenerering kan lära sig utan upphovsrättsdata
Bildgenerering

Forskare vid University of Texas i Austin har utvecklat ett innovativt ramverk för att träna AI-modeller på kraftigt korrumperade bilder. 

Metoden, som kallas Ambient Diffusion, gör det möjligt för AI-modeller att "hämta inspiration" från bilder utan direkt kopiera dem.

Konventionella text-till-bild-modeller som används av DALL-E, Midjourney och Stable Diffusion riskerar upphovsrättsintrång eftersom de tränas på dataset som innehåller upphovsrättsskyddade bilder, vilket leder till att de ibland oavsiktligt kopierar dessa bilder. 

Ambient Diffusion vänder upp och ner på detta genom att träna modeller med avsiktligt korrumperad data.

I studieForskarteamet, som består av Alex Dimakis och Giannis Daras från avdelningen för elektro- och datateknik vid UT Austin och Constantinos Daskalakis från MITtränade en Stable Diffusion XL-modell på ett dataset med 3.000 kändisbilder. 

Till en början observerades att modeller som tränats på rena data helt uppenbart kopierade träningsexemplen. 

Men när träningsdata korrumperades - upp till 90% av pixlarna maskerades slumpmässigt - producerade modellen fortfarande unika bilder av hög kvalitet.

Det innebär att AI:n aldrig exponeras för igenkännbara versioner av originalbilderna, vilket hindrar den från att kopiera dem.

"Vårt ramverk gör det möjligt att kontrollera avvägningen mellan memorering och prestanda," förklarade Giannis Daras, en doktorand i datavetenskap som ledde arbetet. 

"I takt med att graden av korruption under träningen ökar, minskar inlärningen av träningsmaterialet."

Vetenskapliga och medicinska tillämpningar

Användningen av Ambient Diffusion sträcker sig längre än till att lösa upphovsrättsliga problem. 

Enligt professor Adam Klivans, en av projektets medarbetare, "kan ramverket visa sig vara användbart även för vetenskapliga och medicinska tillämpningar. Det skulle gälla i princip all forskning där det är dyrt eller omöjligt att ha en fullständig uppsättning okorrumperade data, från avbildning av svarta hål till vissa typer av magnetkameraundersökningar."

Detta är särskilt fördelaktigt inom områden med begränsad tillgång till okorrumperad data, t.ex. astronomi och partikelfysik

Inom dessa och andra områden kan data vara extremt brusiga, av dålig kvalitet eller glesa, vilket innebär att meningsfulla data är kraftigt överdrivna av värdelösa data. Att lära modeller att använda suboptimala data mer effektivt skulle vara till hjälp här.

Om Ambient Diffusion-metoden förfinades ytterligare skulle AI-företag kunna skapa funktionella text-till-bild-modeller samtidigt som de respekterar rättigheterna för skaparna av originalinnehållet och förebygger juridiska problem.

Även om det inte skulle lösa farhågorna om att AI-bildverktyg minskar utbudet av arbete för riktiga konstnärer, skulle det åtminstone skydda deras verk från att av misstag replikeras i utdata.

Bli en del av framtiden


PRENUMERERA IDAG

Tydlig, kortfattad och heltäckande. Få grepp om AI-utvecklingen med DagligaAI

Sam Jeans

Sam är en vetenskaps- och teknikskribent som har arbetat i olika AI-startups. När han inte skriver läser han medicinska tidskrifter eller gräver igenom lådor med vinylskivor.

×

GRATIS PDF EXKLUSIV
Ligg steget före med DailyAI

Registrera dig för vårt veckovisa nyhetsbrev och få exklusiv tillgång till DailyAI:s senaste e-bok: "Mastering AI Tools: Din 2024-guide till förbättrad produktivitet".

*Genom att prenumerera på vårt nyhetsbrev accepterar du vår Integritetspolicy och våra Villkor och anvisningar