Ed Newton-Rex, tidligere vicepræsident for lyd hos Stability AI, annoncerer "Fairly Trained"

18. januar 2024

Retvisende trænet AI

Ed Newton-Rex, tidligere vicepræsident for lyd hos Stability AI, annoncerede lanceringen af 'Fairly Trained', en non-profit organisation, der er dedikeret til at certificere generative AI-virksomheder for en mere retfærdig praksis med træningsdata. 

Initiativet har til formål at skelne mellem virksomheder, der træner deres AI på uretfærdigt skrabede data, og dem, der har en mere etisk tilgang ved at licensere eller skabe deres egne proprietære data.

Newton-Rex udtalte på X: "Det er svært at vide, hvilke generative AI-virksomheder der træner på skrabede data, og hvilke der tager en mere etisk tilgang ved at give licenser. Så i dag lancerer vi Fairly Trained, en non-profit organisation, der certificerer generative AI-virksomheder for en mere fair praksis med træningsdata."

Det sker midt i en eskalerende kritik af laissez-faire-dataskrabning med henblik på at træne AI-modeller, en proces, der har fået rettighedshaverne til at rase. Debatten tog endnu et hop tidligere i januar, da en liste med 16.000 kunstnere der blev brugt til at træne og optimere Midjourney, blev lækket.

Derefter kommer virksomheder som Magic: The Gathering og Wacom, som er afhængige af menneskelig kreativitet, blev voldsomt kritiseret for at bruge AI-genererede billeder på sociale medier. I mellemtiden dukkede rapporter om AI-jobudskiftninger op på de sociale medier, også på Duolingo.

Midjourney og Stability AI, Newton-Rex' tidligere firma, er i øjeblikket låst fast i en Retssag om ophavsret der skal føre til en afgørelse i år. Det er en af de mange klager, der er indgivet mod OpenAI, Anthropic, Meta, Midjourney, Stability og andre. 

Stability AI er blevet undersøgt for at bruge millioner af ophavsretligt beskyttede billeder og lydfiler i deres modeller, hvilket har rejst spørgsmål om grænserne for 'fair use' - som Newton-Rex nu har til hensigt at løse med Fairly Trained-programmet. 

Newton-Rex trak sig fra Stability AI sidste år og sagde på X: "Jeg har trukket mig fra min rolle som leder af Audio-teamet hos Stability AI, fordi jeg ikke er enig i virksomhedens opfattelse af, at træning af generative AI-modeller på ophavsretligt beskyttede værker er 'fair use'."

På trods af sin opsigelse fra Stability AI udtrykte Newton-Rex optimisme med hensyn til at opnå et harmonisk forhold mellem generativ AI og de kreative industrier, hvilket nu er blevet understreget af Fairly Trained. 

Programmet Fairly Trained

'Fairly Trained' introducerer sin første certificering, 'Licenseret model (L) certificering.'

Målet er at fremhæve AI-modeller, der bruger træningsdata på en etisk måde og sikrer, at der ikke bruges ophavsretligt beskyttet arbejde uden licens. Dette gælder for AI-modeller på tværs af flere områder som billed- og musikgenerering.

For at opfylde kriterierne skal træningsdata enten være:

  • Kontraktligt aftalt med rettighedshavere.
  • Under en passende åben licens.
  • I det globale offentlige domæne.
  • Ejet af modeludvikleren.

Virksomhederne skal grundigt kontrollere rettighedsstatus for deres træningsdata, og der skal føres detaljerede optegnelser over de anvendte træningsdata. Ansøgningen indebærer en detaljeret skriftlig indsendelse og en gennemgangsproces, der afsluttes med certificering og årlig revurdering.

Selv om Newton-Rex indrømmer, at denne første certificering ikke løser alle problemer omkring generativ AI-træning, såsom debatten om opt-in vs. opt-out, er det et skridt fremad.

Indtil videre er programmet blevet godt modtaget. Dr. Yair Adato fra BRIA AI roste den, i et blogindlæg"Vi er stolte af at støtte Fairly Trained-certificeringen. Dette initiativ modvirker branchens uigennemsigtighed i forbindelse med dataindkøb og sikrer, at virksomhederne lever op til strenge etiske standarder."

Christopher Horton, SVP hos Universal, sagde: "Vi glæder os over lanceringen af Fairly Trained-certificeringen, som hjælper virksomheder og skabere med at identificere ansvarlige generative AI-værktøjer, der er trænet på lovligt og etisk indhentet materiale."

Fairly Trained har allerede certificeret ni generative AI-virksomheder inden for billedgenerering, musikskabelse og stemmesyntese, herunder Beatoven.AI, Boomy, BRIA AI, Endel, LifeScore, Rightsify, Somms.ai, Soundful og Tuney.

Det bliver interessant at se, hvilke virksomheder der tilmelder sig programmet, og hvor gennemsigtige de gør deres data. Ideelt set bør offentligheden selv kunne se datasættene (forudsat at de er offentligt tilgængelige eller ikke på anden måde er beskyttede). 

Der er en vis kompleksitet i certificeringen, da dataene skal være i det "offentlige domæne globalt", hvilket kan være vanskeligt at navigere i på grund af forskellige love om ophavsret i forskellige jurisdiktioner. 

Hvad der betragtes som public domain i ét land, er det måske ikke i et andet. For eksempel kan et litterært værk blive public domain i USA 70 år efter forfatterens død, men det samme værk kan stadig være omfattet af ophavsret i Europa.

Under alle omstændigheder indebærer Fairly Trained's krav om, at data skal være "i det offentlige domæne globalt", en høj standard.

Kan dette blive året med øget ansvarlighed for AI-virksomheder og mere gennemsigtig datapraksis? 

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Sam Jeans

Sam er videnskabs- og teknologiforfatter og har arbejdet i forskellige AI-startups. Når han ikke skriver, kan han finde på at læse medicinske tidsskrifter eller grave i kasser med vinylplader.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser