OpenAI ha recentemente annunciato un nuovo approccio ai dati e all'IA, sottolineando l'importanza di uno sviluppo responsabile dell'IA e di partnership con creatori e proprietari di contenuti.
L'azienda ha dichiarato di voler costruire sistemi di intelligenza artificiale che espandano le opportunità per tutti, rispettando le scelte di creatori ed editori.
"L'IA dovrebbe ampliare le opportunità per tutti. Trasformando le informazioni in modi nuovi, i sistemi di IA ci aiutano a risolvere i problemi e a esprimere noi stessi". OpenAI ha dichiarato nel suo post recente sul blog.
Nell'ambito di questa strategia, l'azienda sta sviluppando uno strumento chiamato Media Manager, destinato a consentire ai creatori e ai proprietari di contenuti di specificare come vogliono che le loro opere siano incluse o escluse dalla ricerca e dall'addestramento dell'apprendimento automatico.
"Il nostro obiettivo è di rendere operativo lo strumento entro il 2025 e speriamo che diventi uno standard per il settore dell'IA". OpenAI dichiarato.
Le informazioni disponibili su Media Manager e sul suo funzionamento sono scarse. Sembra che assumerà la forma di uno strumento self-service in cui i creatori potranno identificare e controllare i propri dati.
Alcuni ipotizzano che OpenAI identificherà attivamente i dati dei creatori all'interno del loro set di dati utilizzando l'apprendimento automatico, che potrebbe essere enorme.
UIn definitiva, non sappiamo ancora come funzionerà e quanto sarà efficace.
OpenAI ha annunciato Media Manager, una piattaforma pianificata per consentire ai creatori di scegliere se partecipare o meno alla formazione generativa dell'intelligenza artificiale.
Positivi:
- Sono lieto che si stiano impegnando su questo tema.
- Riconoscono che gli opt-out esistenti non sono sufficienti.
- Quando si sceglie di non partecipare, sembra che si utilizzi la ML per...- Ed Newton-Rex (@ednewtonrex) 7 maggio 2024
Una mossa positiva da parte di OpenAI? È possibile, ma se OpenAI crede veramente che l'addestramento di modelli di IA su dati pubblicidati disponibili rientrano nell'ambito del fair use, non ci sarebbe bisogno di un'opzione di opt-out.
Inoltre, se OpenAI può sviluppare strumenti per identificare il materiale protetto da copyright, probabilmente potrebbe usarli per filtrare il suo scraping di dati fin dall'inizio, piuttosto che richiedere ai creatori di contenuti di scegliere di non partecipare.
Inoltre, il 2025 dà loro abbastanza tempo per costruire un colossale set di dati fondamentali sulle opere protette da copyright delle persone senza il loro permesso.
Da lì in poi, è soprattutto una questione di messa a punto. OpenAI continuerà ad acquistare dati da fonti come il Financial Times e Le Monde per tenere aggiornati i loro modelli.
Questo serve almeno a dimostrare che c'è una pressione su OpenAI e altre aziende di intelligenza artificiale a gestire i dati in modo più etico.
A contribuire a una scrivania piena di cause legali, il gruppo europeo di difesa della privacy Noyb ha recentemente ha avviato un'azione legale a OpenAI, sostenendo che ChatGPT genera ripetutamente informazioni imprecise sulle persone e non le corregge.
OpenAILa risposta dell'azienda è stata una caratteristica: "Forse avete ragione, ma non possiamo o non vogliamo fare nulla al riguardo".