Världen står inför flera uppmärksammade val i år och i ett blogginlägg från OpenAI beskrivs metoder för att stärka den demokratiska processen mot missbruk av AI-teknik.
OpenAI:s strategi kretsar kring tre kärnområden: att förhindra missbruk, öka insynen och förbättra tillgången till korrekt röstningsinformation.
Företaget arbetar aktivt för att förhindra skadliga djupförfalskningar, begränsa AI-skalade operationer för att påverka väljarnas åsikter och sätta stopp för chatbottar som utger sig för att vara politiska kandidater.
OpenAI uppgav också att de aktivt förfinar sina verktyg för att förbättra faktakorrektheten, minska partiskheten och avvisa förfrågningar som kan skada valintegriteten, till exempel att avvisa förfrågningar om bildgenerering av verkliga personer, inklusive kandidater.
De säger: "Vi förväntar oss och strävar efter att människor ska använda våra verktyg på ett säkert och ansvarsfullt sätt, och det gäller även vid val."
Detta omfattar bland annat rigorös red teaming av nya system, inhämtande av feedback från användare och partners samt säkerhetsåtgärder.
Ökad transparens
Djupa förfalskningar är allmänhetens fiende nummer ett för branschen just nu.
Nya incidenter som djupa falska annonser utger sig för att vara Storbritanniens premiärminister Rishi Sunak på Facebook, som nådde uppskattningsvis 400.000 personer, och potentiell inblandning i de slovakiska och Bangladeshs val har illustrerat AI:s potential att blanda sig i politiken.
AI har redan varit utplacerade inför valet i USA, där kandidaterna använder tekniken för att skapa reklambilder.
OpenAI driver på arbetet med att öka transparensen. De planerar att implementera Coalition for Content Provenance and Authenticitys digitala referenser för bilder som genererats av DALL-E 3, som använder kryptografi för att koda detaljer om innehållets ursprung.
Dessutom utvecklas en ny proveniensklassificering för att upptäcka DALL-E-genererade bilder. "Våra interna tester har visat lovande tidiga resultat", säger OpenAI, som planerar att släppa verktyget till journalister, plattformar och forskare för feedback.
OpenAI integrerar också ChatGPT med nyhetsrapportering i realtid globalt, i syfte att förse användarna med transparenta källor för sina frågor.
I USA samarbetar OpenAI med National Association of Secretaries of State (NASS) för att hänvisa ChatGPT-användare till CanIVote.org för auktoritativ amerikansk röstningsinformation.
De har för avsikt att använda insikterna från detta partnerskap för att vägleda strategier i andra länder.
De brännande frågorna kvarstår: är det tillräckligt? Kan AI-företagen hantera dessa frågor på ett praktiskt sätt, eller har frågan redan gått bortom effektiv kontroll?