OpenAI presenterade nyligen ett nytt förhållningssätt till data och AI, där vikten av ansvarsfull AI-utveckling och partnerskap med kreatörer och innehållsägare betonas.
Företaget har förklarat att man vill bygga AI-system som ökar möjligheterna för alla och samtidigt respekterar de val som görs av kreatörer och utgivare.
"AI bör öka möjligheterna för alla. Genom att omvandla information på nya sätt hjälper AI-system oss att lösa problem och uttrycka oss själva." OpenAI uttalade i sitt senaste blogginlägget.
Som en del av denna strategi utvecklar företaget ett verktyg kallat Media Manager, som ska göra det möjligt för kreatörer och innehållsägare att ange hur de vill att deras verk ska inkluderas eller exkluderas från forskning och utbildning inom maskininlärning.
"Vårt mål är att ha verktyget på plats 2025, och vi hoppas att det kommer att sätta en standard för hela AI-industrin", säger han. OpenAI anges.
Det finns lite information tillgänglig om Media Manager och hur det kan fungera. Det verkar som om det kommer att ta formen av ett självbetjäningsverktyg där skapare kan identifiera och kontrollera sina data.
Vissa spekulerar i om OpenAI kommer aktivt att identifiera data från upphovsmän i sina dataset med hjälp av maskininlärning - vilket kan bli enormt.
Ultimately, vi vet ännu inte hur det kommer att fungera eller hur effektivt det kommer att vara.
OpenAI tillkännagav Media Manager, en planerad plattform för att låta kreatörer välja till/från generativ AI-träning.
Positivt:
- Jag är glad att de engagerar sig i den här frågan
- De erkänner att befintliga opt-outs inte är tillräckligt bra
- När du väljer bort det låter det som att de kommer att använda ML för att...- Ed Newton-Rex (@ednewtonrex) 7 maj 2024
En positiv förändring från OpenAI? Möjligen, men om OpenAI verkligen tror att träning av AI-modeller på offentligt tillgängligatillgängliga uppgifter omfattas av rättvis användning, skulle det inte finnas något behov av ett opt-out-alternativ.
Dessutom, om OpenAI kan utveckla verktyg för att identifiera upphovsrättsskyddat material, skulle de förmodligen kunna använda dem för att filtrera sin dataskrapning redan från början i stället för att kräva att innehållsskaparna väljer bort det.
Dessutom ger 2025 dem tillräckligt med tid för att bygga en kolossal grundläggande dataset av människors upphovsrättsskyddade verk utan deras tillstånd.
Därefter är det främst en fråga om finjusteringar. OpenAI kommer att fortsätta att köpa data från källor som Financial Times och Le Monde för att hålla sina modeller uppdaterade.
Detta är åtminstone ett bevis på att det finns påtryckningar på OpenAI och andra AI-företag att hantera data på ett mer etiskt sätt.
Den europeiska gruppen för integritetsskydd Noyb bidrog nyligen till ett skrivbord fullt av stämningar inlett rättsliga åtgärder på OpenAI, och hävdade att ChatGPT upprepade gånger genererar felaktig information om människor och misslyckas med att korrigera den.
OpenAISvaret var karaktäristiskt: "Du kanske har rätt, men vi kan inte, eller kommer inte, att göra något åt det.