In een schriftelijke verklaring aan het Britse Hogerhuis stelde OpenAI dat het "onmogelijk" is om AI-tools te maken zonder gebruik te maken van auteursrechtelijk beschermd materiaal.
Het debat over de interactie tussen auteursrecht en AI wordt steeds intensiever. Auteurs, schrijvers en media als de New York Times hebben rechtszaken aangespannen tegen OpenAI, Microsoft, Stability AI, Anthropic, Google en Midjourney, om er maar een paar te noemen.
Grote taalmodellen (LLM's) zoals ChatGPT en afbeeldingsgeneratoren zoals Midjourney, die onlangs in het nieuws kwam omdat ze een database van 16.000 artiesten voor modeltraining, vertrouwen op uitgebreide auteursrechtelijk beschermde gegevens voor hun training.
In feite vormen auteursrechtgegevens de steunpilaar van AI-trainingsmateriaal omdat ze overvloedig aanwezig zijn, een breed spectrum van menselijke creativiteit bestrijken en gemakkelijk van het internet te halen zijn.
AI-bedrijven beweren dat deze gegevens 'fair use' zijn voor het trainen van hun modellen, maar veel anderen zijn het daar niet mee eens.
In een reactie aan het House of Lords communications and digital select committee, benadrukte OpenAI onlangs hun behoefte aan auteursrechtelijk beschermd materiaal voor LLM opleidingen zoals GPT-4.
OpenAI stelt: "Omdat auteursrecht tegenwoordig vrijwel elke vorm van menselijke expressie dekt - inclusief blogposts, foto's, forumberichten, stukjes softwarecode en overheidsdocumenten - zou het onmogelijk zijn om de toonaangevende AI-modellen van vandaag te trainen zonder gebruik te maken van auteursrechtelijk beschermd materiaal."
Het bedrijf voerde verder aan dat het beperken van trainingsmateriaal tot bronnen uit het publieke domein zou leiden tot slechte AI-systemen.
"Het beperken van trainingsgegevens tot boeken en tekeningen uit het publieke domein die meer dan een eeuw geleden zijn gemaakt, kan een interessant experiment opleveren, maar zou geen AI-systemen opleveren die voldoen aan de behoeften van de hedendaagse burger," voegde OpenAI toe.
Je kunt de hele schriftelijk bewijs hierdie ook ingaat op het toekomstige traject van AI, catastrofale risico's, waarvoor OpenAI reclame maakt met hun Frontier Model Forum en Preparedness-team, en regelgeving.
Het publiek reageert
De reacties op deze uitspraken waren niet bepaald sympathiek.
Dr. Gary Marcus, bijvoorbeeld, een prominente stem in de industrie, zei dat dit in wezen AI-modellen zelf labelt als een middel om geld te verdienen aan gestolen auteursrechtelijk beschermd werk.
Het lijkt er inderdaad op dat dit bijna een Freudiaanse verspreking is van OpenAI, die toegeeft dat hun bedrijfsmodel onwerkbaar is zonder de wet te manipuleren.
Er is een voelbaar gevoel van onrechtvaardigheid nu zo weinigen in de hogere echelons van Silicon Valley profiteren van het werk van zo velen.
De verklaring van OpenAI beweert ook dat ze 'de behoeften' van de hedendaagse 'burgers' begrijpen, wat een steeds groter wordende kloof blootlegt tussen de visie van big tech op generatieve AI als een humanitair, zelfs filantropisch project en de angst van mensen dat het hun gegevens steelt en hun vaardigheden verdringt.
Dr. Marcus zei: "[AI-bedrijven]...moeten terug naar de tekentafel en uitzoeken hoe ze software kunnen maken die geen plagiaatprobleem heeft, in plaats van kunstenaars, schrijvers en andere contentproviders op te lichten."
Nu weten we waarom Sam Altman afgelopen zomer de wereld rondreisde om wereldleiders te ontmoeten: zijn bedrijf zal niet groot worden tenzij ze regeringen kunnen overtuigen om hen een van de grootste aalmoezen uit de geschiedenis te geven. https://t.co/Pcc8FchG1a
- Gary Marcus (@GaryMarcus) 8 januari 2024
Rechtszaken stapelen zich op
Dit komt ook te midden van verschillende rechtszaken tegen OpenAI, met bekende auteurs als John Grisham, Jodi Picoult en George RR Martin. het bedrijf aanklagen in september vorig jaar voor vermeende "systematische diefstal op grote schaal".
Twee gewaardeerde journalisten, Nicholas Gage en Nicholas Basbanes, hebben nog een klacht ingediend tegen OpenAI en Microsoft vorige weeken voegt toe aan het groeiende aantal juridische uitdagingen waarmee AI-bedrijven uit zowel de schrijvende als de beeldende kunstgemeenschap worden geconfronteerd.
OpenAI heeft ook gereageerd op de rechtszaak van de New York Times en zegt dat ze vinden dat deze "ongegrond is", zie hieronder.
We bouwen AI om mensen, waaronder journalisten, te versterken.
Ons standpunt over de @nytimes rechtszaak:
- Training is eerlijk gebruik, maar we bieden een opt-outmogelijkheid
- "Regurgitatie" is een zeldzame bug die we tot nul proberen te reduceren
- De New York Times vertelt niet het hele verhaalhttps://t.co/S6fSaDsfKb- OpenAI (@OpenAI) 8 januari 2024
Deze ontwikkelingen geven aanleiding tot bezorgdheid over de mogelijke juridische aansprakelijkheid waarmee AI-bedrijven dit jaar en in de toekomst te maken kunnen krijgen. Hoe zullen ze zich aanpassen? Zal de groeiende weerstand van het publiek invloed hebben op het traject van de industrie?
En hoe kun je grootschalige generatieve AI-modellen ethisch trainen? Is ethiek wel verenigbaar met de huidige incarnatie van de technologie?
De verdediging van AI-bedrijven houdt tot nu toe stand, maar de wig tussen de ideeën van AI-ontwikkelaars over 'fair use' en hoe anderen daar tegenaan kijken, wordt steeds groter.