OpenAI annoncerede for nylig en ny tilgang til data og AI og understregede vigtigheden af ansvarlig AI-udvikling og partnerskaber med skabere og indholdsejere.
Virksomheden har erklæret, at den vil bygge AI-systemer, der udvider mulighederne for alle og samtidig respekterer skabernes og udgivernes valg.
"AI bør udvide mulighederne for alle. Ved at omdanne information på nye måder hjælper AI-systemer os med at løse problemer og udtrykke os." OpenAI sagde i sin Seneste blogindlæg.
Som en del af denne strategi er virksomheden ved at udvikle et værktøj kaldet Media Manager, som skal gøre det muligt for skabere og indholdsejere at specificere, hvordan de ønsker, at deres værker skal inkluderes eller ekskluderes fra maskinlæringsforskning og -træning.
"Vores mål er at have værktøjet på plads i 2025, og vi håber, at det vil sætte en standard på tværs af AI-industrien". OpenAI sagde.
Der er kun få oplysninger tilgængelige om Media Manager, og hvordan det kan komme til at fungere. Det ser ud til, at det bliver i form af et selvbetjeningsværktøj, hvor skaberne kan identificere og kontrollere deres data.
Nogle spekulerer på, om OpenAI vil aktivt identificere skabernes data i deres datasæt ved hjælp af maskinlæring - hvilket kan blive enormt.
UI sidste ende ved vi endnu ikke, hvordan det vil fungere, eller hvor effektivt det vil være.
OpenAI annoncerede Media Manager, en planlagt platform til at lade skabere til- og fravælge generativ AI-træning.
Positivt:
- Jeg er glad for, at de beskæftiger sig med dette emne.
- De anerkender, at de eksisterende opt-outs ikke er gode nok
- Når du melder dig ud, lyder det, som om de vil bruge ML til ...- Ed Newton-Rex (@ednewtonrex) 7. maj 2024
Et positivt skridt fra OpenAI? Muligvis, men hvis OpenAI mener oprigtigt, at træning af AI-modeller på offentligt tilgængeligeHvis tilgængelige data falder ind under fair use, ville der ikke være behov for en opt-out-mulighed.
Desuden, hvis OpenAI kan udvikle værktøjer til at identificere ophavsretligt beskyttet materiale, kunne den sandsynligvis bruge dem til at filtrere sin dataskrabning fra starten i stedet for at kræve, at indholdsskabere fravælger det.
Desuden giver 2025 dem tid nok til at opbygge et kolossalt grundlæggende datasæt af folks ophavsretligt beskyttede værker uden deres tilladelse.
Derfra er det primært et spørgsmål om at finjustere. OpenAI vil fortsætte med at købe data fra kilder som Financial Times og Le Monde for at holde deres modeller opdateret.
Det er i det mindste et bevis på, at der er pres på OpenAI og andre AI-virksomheder til at håndtere data mere etisk.
Den europæiske gruppe for beskyttelse af privatlivets fred, Noyb, bidrog for nylig til et skrivebord fyldt med retssager. indledte en retssag på OpenAIog hævder, at ChatGPT gentagne gange genererer unøjagtige oplysninger om mennesker og undlader at rette dem.
OpenAI's svar var karakteristisk: "Du har måske ret, men vi kan eller vil ikke gøre noget ved det.