À l'approche de plusieurs élections importantes cette année, un billet de blog de l'OpenAI décrit des méthodes visant à protéger le processus démocratique contre l'utilisation abusive de la technologie de l'IA.
L'équipe d'OpenAI stratégie s'articule autour de trois axes principaux : la prévention des abus, le renforcement de la transparence et l'amélioration de l'accès à des informations précises sur le vote.
L'entreprise travaille activement à contrecarrer les "deep fakes" préjudiciables, à freiner les opérations d'IA visant à influencer l'opinion des électeurs et à lutter contre les "chatbots" qui se font passer pour des candidats politiques.
OpenAI a également déclaré qu'elle affinait activement ses outils afin d'améliorer l'exactitude des faits, de réduire les préjugés et de refuser les demandes qui pourraient nuire à l'intégrité des élections, telles que le refus des demandes de génération d'images de personnes réelles, y compris de candidats.
Selon eux, "nous attendons et souhaitons que les gens utilisent nos outils de manière sûre et responsable, et les élections ne font pas exception à la règle".
Il s'agit notamment de mettre au point de nouveaux systèmes en équipe restreinte, de solliciter l'avis des utilisateurs et des partenaires et de mettre en place des mesures d'atténuation de la sécurité.
Renforcer la transparence
Les contrefaçons profondes sont l'ennemi public numéro un de l'industrie à l'heure actuelle.
Des incidents récents comme les fausses publicités profondes Usurpation d'identité du Premier ministre britannique Rishi Sunak sur Facebook, touchant environ 400 000 personnes, et l'interférence potentielle dans les élections slovaques et européennes. Élections au Bangladesh ont illustré le potentiel d'ingérence de l'IA dans la politique.
L'IA a déjà été déployée à l'approche des élections américainesLes candidats utilisent la technologie pour créer des images promotionnelles.
L'OpenAI poursuit ses efforts pour accroître la transparence. Elle prévoit de mettre en œuvre les certificats numériques de la Coalition for Content Provenance and Authenticity pour les images générées par DALL-E 3, qui utilisent la cryptographie pour encoder des détails sur la provenance du contenu.
En outre, un nouveau classificateur de provenance est en cours de développement pour détecter les images générées par DALL-E. "Nos tests internes ont donné des résultats préliminaires prometteurs", déclare OpenAI, qui prévoit de mettre cet outil à la disposition des journalistes, des plateformes et des chercheurs pour recueillir leurs commentaires.
OpenAI intègre également ChatGPT à des rapports d'actualité en temps réel à l'échelle mondiale, afin de fournir aux utilisateurs des sources transparentes pour leurs requêtes.
Aux États-Unis, OpenAI collabore avec l'Association nationale des secrétaires d'État (NASS) pour diriger les utilisateurs de ChatGPT vers CanIVote.org, qui fournit des informations fiables sur le vote aux États-Unis.
Ils ont l'intention d'utiliser les enseignements tirés de ce partenariat pour orienter les stratégies dans d'autres pays.
Les questions brûlantes demeurent : est-ce suffisant ? Les entreprises spécialisées dans l'IA peuvent-elles s'attaquer concrètement à ces questions, ou le problème a-t-il déjà échappé à tout contrôle efficace ?