Mens verden nærmer sig flere højt profilerede valg i år, beskriver et OpenAI-blogindlæg metoder til at styrke den demokratiske proces mod misbrug af AI-teknologi.
OpenAI's strategi drejer sig om tre kerneområder: forebyggelse af misbrug, øget gennemsigtighed og bedre adgang til nøjagtige stemmeoplysninger.
Virksomheden arbejder aktivt på at forhindre skadelige deep fakes, bremse AI-skalerede operationer for at påvirke vælgernes meninger og slå ned på chatbots, der udgiver sig for at være politiske kandidater.
OpenAI sagde også, at de aktivt forbedrer deres værktøjer for at forbedre den faktuelle nøjagtighed, reducere bias og afvise anmodninger, der kan skade valgets integritet, såsom at afvise anmodninger om billedgenerering af rigtige mennesker, herunder kandidater.
Som de siger: "Vi forventer og tilstræber, at folk bruger vores værktøjer på en sikker og ansvarlig måde, og det gælder også ved valg."
Det omfatter grundig red teaming af nye systemer, indhentning af feedback fra brugere og partnere og opbygning af sikkerhedsforanstaltninger.
Øget gennemsigtighed
Deep fakes er samfundets fjende nummer et i branchen lige nu.
Nylige hændelser som dybe falske reklamer udgav sig for at være Storbritanniens premierminister Rishi Sunak på Facebook, der skønnes at nå ud til 400.000 mennesker, og potentiel indblanding i det slovakiske og Valg i Bangladesh har illustreret AI's potentiale for at blande sig i politik.
AI er allerede blevet indsat forud for det amerikanske valg, hvor kandidater bruger teknologien til at generere reklamebilleder.
OpenAI arbejder på at øge gennemsigtigheden. De planlægger at implementere Coalition for Content Provenance and Authenticity's digitale legitimationsoplysninger for billeder genereret af DALL-E 3, som bruger kryptografi til at indkode detaljer om indholdets oprindelse.
Derudover er der ved at blive udviklet en ny herkomstklassifikator til at opdage DALL-E-genererede billeder. "Vores interne test har vist lovende tidlige resultater", siger OpenAI, som planlægger at frigive dette værktøj til journalister, platforme og forskere for at få feedback.
OpenAI integrerer også ChatGPT med global nyhedsrapportering i realtid med det formål at give brugerne gennemsigtige kilder til deres forespørgsler.
I USA samarbejder OpenAI med National Association of Secretaries of State (NASS) om at henvise ChatGPT-brugere til CanIVote.org for at få autoritative oplysninger om valg i USA.
De har til hensigt at bruge indsigten fra dette partnerskab til at styre strategier i andre lande.
De brændende spørgsmål er stadig: Er det nok? Kan AI-virksomheder tackle disse problemer i praksis, eller er problemet allerede gået ud over effektiv kontrol?