Ed Newton-Rex, tidligere lyddirektør i Stability AI, lanserer "Fairly Trained"

18. januar 2024

Ganske godt trent AI

Ed Newton-Rex, tidligere visepresident for lyd i Stability AI, kunngjorde lanseringen av "Fairly Trained", en ideell organisasjon dedikert til å sertifisere generative AI-selskaper for mer rettferdig praksis for opplæringsdata. 

Initiativet tar sikte på å skille mellom selskaper som trener opp AI-en sin på urettferdig skrapede data, og de som har en mer etisk tilnærming ved å lisensiere eller skape sine egne data.

Newton-Rex uttalte på X: "Det er vanskelig å vite hvilke generative AI-selskaper som trener på skrapede data og hvilke som tar en mer etisk tilnærming ved å lisensiere. Så i dag lanserer vi Fairly Trained, en ideell organisasjon som sertifiserer generative AI-selskaper for mer rettferdig praksis for treningsdata."

Dette kommer midt i en eskalerende kritikk av laissez-faire-dataskraping med det formål å trene opp AI-modeller, en prosess som har fått rettighetshaverne til å rase. Debatten skjøt fart tidligere i januar, da en liste med 16 000 artister som ble brukt til å trene og optimalisere Midjourney, ble lekket.

Deretter følger selskaper som Magic: The Gathering og Wacom, som baserer seg på menneskelig kreativitet, ble voldsomt utskjelt for bruk av AI-genererte bilder på sosiale medier. I mellomtiden dukket det opp rapporter om AI-jobberstatninger på sosiale medier, blant annet på Duolingo.

Midjourney og Stability AI, Newton-Rex' tidligere selskap, er for tiden låst i en søksmål om opphavsrett som er satt til å utvikle seg mot en avgjørelse i år. Det er en av mange klager som er innlevert mot selskaper som OpenAI, Anthropic, Meta, Midjourney, Stability og andre. 

Stability AI har blitt gransket for å bruke millioner av opphavsrettsbeskyttede bilder og lydfiler i modellene sine, noe som har reist spørsmål om grensene for "rettferdig bruk" - noe Newton-Rex nå har til hensikt å ta tak i med Fairly Trained-programmet. 

Newton-Rex trakk seg fra Stability AI i fjor, og uttalte på X: "Jeg har trukket meg fra min rolle som leder for Audio-teamet i Stability AI fordi jeg ikke er enig i selskapets oppfatning om at trening av generative AI-modeller på opphavsrettsbeskyttede verk er 'fair use'."

Til tross for at han trakk seg fra Stability AI, uttrykte Newton-Rex optimisme med hensyn til å oppnå et harmonisk forhold mellom generativ AI og den kreative industrien, noe som nå har blitt understreket av Fairly Trained. 

Programmet Fairly Trained

"Fairly Trained" lanserer sin første sertifisering, "Fairly Trained".Lisensiert modell (L)-sertifisering.'

Målet er å fremheve AI-modeller som bruker treningsdata på en etisk forsvarlig måte, og som sikrer at ingen opphavsrettsbeskyttede verk brukes uten lisens. Dette gjelder AI-modeller på tvers av flere felt, for eksempel bilde- og musikkgenerering.

For å oppfylle kriteriene må treningsdataene enten være

  • Kontraktsmessig avtalt med rettighetshaverne.
  • Under en passende åpen lisens.
  • I det globale offentlige området.
  • Eies av modellutvikleren.

Bedriftene må foreta en grundig kontroll av rettighetsstatusen til opplæringsdataene sine, og det må føres detaljert oversikt over opplæringsdataene som brukes. Søknaden innebærer en detaljert skriftlig søknad og en gjennomgangsprosess, som avsluttes med sertifisering og årlig revurdering.

Newton-Rex innrømmer at denne første sertifiseringen ikke løser alle problemer knyttet til generativ AI-trening, for eksempel debatten om opt-in vs. opt-out, men det er et skritt fremover.

Så langt har programmet blitt godt mottatt. Dr. Yair Adato fra BRIA AI berømmet den, i et blogginnlegg"Vi er stolte av å støtte Fairly Trained-sertifiseringen. Dette initiativet motvirker bransjens ugjennomsiktighet i datainnkjøp, og sikrer at selskapene oppfyller strenge etiske standarder."

Christopher Horton, SVP i Universal, sier: "Vi ønsker lanseringen av Fairly Trained-sertifiseringen velkommen for å hjelpe selskaper og skapere med å identifisere ansvarlige generative AI-verktøy som er trent på lovlig og etisk innhentet materiale."

Fairly Trained har allerede sertifisert ni generative AI-selskaper innen bildegenerering, musikkskaping og stemmesyntese, deriblant Beatoven.AI, Boomy, BRIA AI, Endel, LifeScore, Rightsify, Somms.ai, Soundful og Tuney.

Det blir interessant å se hvilke selskaper som melder seg på programmet, og hvor åpne de gjør dataene sine. Ideelt sett bør offentligheten kunne se datasettene selv (forutsatt at de er offentlig tilgjengelige eller ikke er beskyttet på annen måte). 

Sertifiseringen er noe komplisert, ettersom dataene må være "offentlig tilgjengelig globalt", noe som kan være vanskelig å navigere i på grunn av varierende opphavsrettslover i ulike jurisdiksjoner. 

Det som anses som offentlig domene i ett land, er kanskje ikke det i et annet. For eksempel kan et litterært verk bli offentlig i USA 70 år etter forfatterens død, mens det samme verket fortsatt kan være opphavsrettslig beskyttet i Europa.

Fairly Trained-kravet om at data skal være "offentlig tilgjengelig globalt", innebærer uansett en høy standard.

Kan dette bli året med økt ansvarlighet for AI-selskaper og mer transparent datapraksis? 

Bli med i fremtiden


ABONNER I DAG

Tydelig, kortfattet og omfattende. Få et grep om AI-utviklingen med DagligAI

Sam Jeans

Sam er en vitenskaps- og teknologiskribent som har jobbet i ulike oppstartsbedrifter innen kunstig intelligens. Når han ikke skriver, leser han medisinske tidsskrifter eller graver seg gjennom esker med vinylplater.

×

GRATIS PDF EKSKLUSIV
Hold deg i forkant med DailyAI

Meld deg på vårt ukentlige nyhetsbrev og få eksklusiv tilgang til DailyAIs nyeste e-bok: "Mastering AI Tools: Din 2024-guide til økt produktivitet".

*Ved å abonnere på vårt nyhetsbrev aksepterer du vår Retningslinjer for personvern og vår Vilkår og betingelser