OpenAI kondigde onlangs een nieuwe benadering van data en AI aan, waarbij het belang van verantwoorde AI-ontwikkeling en partnerschappen met makers en content-eigenaren wordt benadrukt.
Het bedrijf heeft verklaard AI-systemen te bouwen die de mogelijkheden voor iedereen vergroten en tegelijkertijd de keuzes van makers en uitgevers respecteren.
"AI zou de mogelijkheden voor iedereen moeten vergroten. Door informatie op nieuwe manieren te transformeren, helpen AI-systemen ons om problemen op te lossen en onszelf uit te drukken," aldus de auteur. OpenAI verklaarde in zijn recente blogpost.
Als onderdeel van deze strategie ontwikkelt het bedrijf een tool genaamd Media Manager, waarmee makers en eigenaren van inhoud kunnen aangeven hoe ze willen dat hun werken worden opgenomen in of uitgesloten van onderzoek en training door machine learning.
"Ons doel is om de tool tegen 2025 operationeel te hebben en we hopen dat het een standaard zal zijn voor de hele AI-industrie," aldus de directeur. OpenAI verklaard.
Er is weinig informatie beschikbaar over Media Manager en hoe het zou kunnen werken. Het lijkt erop dat het de vorm aanneemt van een zelfbedieningshulpmiddel waar makers hun gegevens kunnen identificeren en beheren.
Sommigen speculeren of OpenAI zal actief gegevens van makers in hun dataset identificeren met behulp van machine learning - wat enorm kan zijn.
UUiteindelijk weten we nog niet hoe het zal werken of hoe effectief het zal zijn.
OpenAI kondigde Media Manager aan, een gepland platform waarmee makers kunnen kiezen of ze wel of geen generatieve AI-training willen volgen.
Positief:
- Ik ben blij dat ze zich met deze kwestie bezighouden
- Ze erkennen dat de bestaande opt-outs niet goed genoeg zijn
- Als je je afmeldt, klinkt het alsof ze ML zullen gebruiken om...- Ed Newton-Rex (@ednewtonrex) 7 mei 2024
Een positieve stap van OpenAI? Mogelijk, maar als OpenAI gelooft echt dat het trainen van AI-modellen op openbaar beschikbareailbare gegevens onder fair use vallen, zou er geen opt-out optie nodig zijn.
Bovendien, als OpenAI tools kan ontwikkelen om auteursrechtelijk beschermd materiaal te identificeren, zou het deze waarschijnlijk kunnen gebruiken om het schrapen van gegevens vanaf het begin te filteren in plaats van de makers van inhoud te verplichten zich uit te schrijven.
Plus, 2025 geeft ze genoeg tijd om een kolossale basisdataset op te bouwen van auteursrechtelijk beschermde werken van mensen zonder hun toestemming.
Vanaf daar is het vooral een kwestie van fine-tuning. OpenAI zal gegevens blijven kopen van bronnen zoals de Financiële Times en Le Monde om hun modellen up-to-date te houden.
Dit bewijst in ieder geval dat er druk wordt uitgeoefend op OpenAI en andere AI-bedrijven om ethischer met gegevens om te gaan.
Als bijdrage aan een bureau vol rechtszaken heeft de Europese privacy-organisatie Noyb onlangs juridische stappen ondernomen op OpenAIen beweert dat ChatGPT genereert herhaaldelijk onjuiste informatie over mensen en slaagt er niet in deze te corrigeren.
OpenAIHet antwoord was kenmerkend: 'Je hebt misschien gelijk, maar we kunnen of willen er niets aan doen.