OpenAI tilføjer C2PA-metadata til billeder skabt af DALL-E 3

7. februar 2024

OpenAI meddelte, at de vil bruge C2PA-standarden til at tilføje metadata til billeder, der er genereret med DALL-E 3.

Udmeldingen kommer, fordi virksomheder fortsat leder efter måder at forhindre, at deres generative AI-produkter bliver brugt til at sprede misinformation.

C2PA er en åben teknisk standard, der tilføjer metadata til et billede, herunder dets oprindelse, redigeringshistorik og andre oplysninger. OpenAI siger, at billeder, der genereres ved hjælp af DALL-E 3 direkte eller via ChatGPT eller dets API, nu vil indeholde C2PA-data. Mobilbrugere vil se dette implementeret den 12. februar.

Et billede, der har fået tilføjet C2PA-metadata, kan uploades til steder som Bekræft legitimationsoplysninger for indhold for at kontrollere billedets oprindelse. Her er et eksempel på de oplysninger, C2PA afslører om et billede, der er lavet med DALL-E via API'en.

C2PA-metadata i et billede genereret af DALL-E. Kilde: OpenAI

Sociale medieplatforme kan også bruge disse data til at markere og mærke billeder som AI-genererede. Meta annoncerede for nylig at den ville gøre en større indsats for at gøre det.

Tilføjelsen af C2PA-data øger filstørrelsen med eksempler på estimater fra OpenAI, der er citeret som:

  • 3,1 MB → 3,2 MB for PNG via API (3% stigning)
  • 287k → 302k for WebP gennem API (5% stigning)
  • 287k → 381k for WebP gennem ChatGPT (32% stigning)

OpenAI anerkender, at "C2PA ikke er en sølvkugle til at løse problemer med herkomst." Metadata kan nemt fjernes, ofte utilsigtet.

Hvis du tager et skærmbillede af billedet, bevares C2PA-dataene ikke. Selv konvertering af et billede fra PNG til JPG vil ødelægge de fleste metadata. De fleste sociale medieplatforme fjerner metadata fra billeder, når de uploades.

OpenAI siger, at de ved at tilføje C2PA til DALL-E-billeder håber at opmuntre "brugerne til at anerkende, at disse signaler er nøglen til at øge pålideligheden af digital information."

Det gør det måske i begrænset omfang, men det faktum, at C2PA er så let at fjerne, hjælper ikke meget, når en person med vilje vil bruge et billede til at være vildledende. Om noget kan det måske bare bremse deepfakerne lidt.

Googles digitale vandmærke SynthID virker som en langt mere sikker løsning, men det er usandsynligt, at OpenAI vil bruge et værktøj, der er skabt af deres konkurrenter.

Deltag i fremtiden


TILMELD DIG I DAG

Klar, kortfattet, omfattende. Få styr på AI-udviklingen med DailyAI

Eugene van der Watt

Eugene har en baggrund som elektronikingeniør og elsker alt, hvad der har med teknologi at gøre. Når han tager en pause fra at læse AI-nyheder, kan du finde ham ved snookerbordet.

×

GRATIS PDF EKSKLUSIVT
Vær på forkant med DailyAI

Tilmeld dig vores ugentlige nyhedsbrev og få eksklusiv adgang til DailyAI's seneste e-bog: 'Mastering AI Tools: Din 2024-guide til forbedret produktivitet'.

*Ved at tilmelde dig vores nyhedsbrev accepterer du vores Politik for beskyttelse af personlige oplysninger og vores Vilkår og betingelser