OpenAI diskuterer metoder for å redusere AI-generert politisk feilinformasjon

16. januar 2024

OpenAI-innloggingslekkasje

Verden står foran flere høyprofilerte valg i år, og et blogginnlegg fra OpenAI beskriver metoder for å sikre den demokratiske prosessen mot misbruk av AI-teknologi. 

OpenAIs strategi dreier seg om tre kjerneområder: å forhindre misbruk, øke åpenheten og forbedre tilgangen til nøyaktig stemmeinformasjon.

Selskapet jobber aktivt for å hindre skadelige deep fakes, bremse AI-skalerte operasjoner for å påvirke velgernes meninger og slå ned på chatboter som utgir seg for å være politiske kandidater.

OpenAI uttalte også at de aktivt jobber med å forbedre verktøyene sine for å forbedre faktanøyaktigheten, redusere skjevheter og avvise forespørsler som kan skade valgintegriteten, for eksempel ved å avvise forespørsler om å generere bilder av virkelige personer, inkludert kandidater.

"Vi forventer og har som mål at folk skal bruke verktøyene våre på en trygg og ansvarlig måte, og det gjelder også ved valg", sier de. 

Dette innebærer blant annet grundig red teaming av nye systemer, innhenting av tilbakemeldinger fra brukere og samarbeidspartnere, og bygging av sikkerhetstiltak. 

Økt åpenhet

Deep fakes er folkefiende nummer én for bransjen akkurat nå. 

Nylige hendelser som dype falske annonser utga seg for å være Storbritannias statsminister Rishi Sunak på Facebook, som nådde anslagsvis 400 000 mennesker, og potensiell innblanding i de slovakiske og Valg i Bangladesh har illustrert AIs potensial for å blande seg inn i politikken. 

AI har allerede blitt utplassert i forkant av det amerikanske valget, med kandidater som bruker teknologien til å generere reklamebilder.

OpenAI arbeider for å øke åpenheten. De planlegger å implementere Coalition for Content Provenance and Authenticitys digitale legitimasjon for bilder generert av DALL-E 3, som bruker kryptografi til å kode detaljer om innholdets opprinnelse. 

I tillegg utvikles det en ny proveniensklassifisering for å oppdage DALL-E-genererte bilder. "Våre interne tester har vist lovende tidlige resultater", sier OpenAI, som planlegger å lansere dette verktøyet til journalister, plattformer og forskere for å få tilbakemeldinger. 

OpenAI integrerer også ChatGPT med nyhetsrapportering i sanntid globalt, med sikte på å gi brukerne transparente kilder til spørsmålene sine. 

I USA samarbeider OpenAI med National Association of Secretaries of State (NASS) for å henvise ChatGPT-brukere til CanIVote.org for autoritativ informasjon om stemmegivning i USA. 

De har til hensikt å bruke innsikten fra dette partnerskapet til å utvikle strategier i andre land.

De brennende spørsmålene gjenstår: Er det nok? Kan AI-selskaper håndtere disse problemene på en praktisk måte, eller har problemet allerede gått utover effektiv kontroll? 

Bli med i fremtiden


ABONNER I DAG

Tydelig, kortfattet og omfattende. Få et grep om AI-utviklingen med DagligAI

Sam Jeans

Sam er en vitenskaps- og teknologiskribent som har jobbet i ulike oppstartsbedrifter innen kunstig intelligens. Når han ikke skriver, leser han medisinske tidsskrifter eller graver seg gjennom esker med vinylplater.

×

GRATIS PDF EKSKLUSIV
Hold deg i forkant med DailyAI

Meld deg på vårt ukentlige nyhetsbrev og få eksklusiv tilgang til DailyAIs nyeste e-bok: "Mastering AI Tools: Din 2024-guide til økt produktivitet".

*Ved å abonnere på vårt nyhetsbrev aksepterer du vår Retningslinjer for personvern og vår Vilkår og betingelser