OpenAI diskutiert Methoden zur Entschärfung von KI-generierten politischen Fehlinformationen

Januar 16, 2024

OpenAI-Login-Leck

Da in diesem Jahr weltweit mehrere wichtige Wahlen anstehen, beschreibt ein OpenAI-Blogbeitrag Methoden, um den demokratischen Prozess gegen den Missbrauch von KI-Technologie zu schützen. 

OpenAIs Strategie konzentriert sich auf drei Kernbereiche: Verhinderung von Missbrauch, Erhöhung der Transparenz und Verbesserung des Zugangs zu genauen Wahlinformationen.

Das Unternehmen arbeitet aktiv daran, schädliche Deep Fakes zu vereiteln, KI-gestützte Operationen zur Beeinflussung von Wählermeinungen zu unterbinden und gegen Chatbots vorzugehen, die sich als politische Kandidaten ausgeben.

OpenAI erklärte außerdem, dass sie ihre Tools aktiv weiterentwickeln, um die sachliche Genauigkeit zu verbessern, Voreingenommenheit zu reduzieren und Anfragen abzulehnen, die der Integrität der Wahlen schaden könnten, wie z. B. die Ablehnung von Anfragen zur Bilderzeugung von echten Personen, einschließlich Kandidaten.

In ihren Worten: "Wir erwarten und streben danach, dass die Menschen unsere Werkzeuge sicher und verantwortungsvoll nutzen, und das gilt auch für Wahlen." 

Dazu gehören ein rigoroses Red-Teaming neuer Systeme, die Einholung von Rückmeldungen von Benutzern und Partnern sowie die Entwicklung von Sicherheitsmaßnahmen. 

Verbesserung der Transparenz

Fälschungen sind derzeit der Staatsfeind Nummer eins in der Branche. 

Jüngste Vorfälle wie gefälschte Anzeigen der sich als britischer Premierminister Rishi Sunak ausgibt auf Facebook, die schätzungsweise 400.000 Menschen erreichte, und eine mögliche Einmischung in die slowakische und Wahlen in Bangladesch haben das Potenzial der KI zur Einmischung in die Politik veranschaulicht. 

KI wurde bereits im Vorfeld der US-Wahlen eingesetztmit Kandidaten, die die Technologie zur Erstellung von Werbebildern nutzen.

OpenAI treibt die Bemühungen um mehr Transparenz voran. Sie planen, die digitalen Berechtigungsnachweise der Coalition for Content Provenance and Authenticity für die von DALL-E 3 erzeugten Bilder zu implementieren, die mithilfe von Kryptografie Details zur Herkunft der Inhalte verschlüsseln. 

Außerdem wird ein neuer Provenienz-Klassifikator zur Erkennung von DALL-E-generierten Bildern entwickelt. "Unsere internen Tests haben vielversprechende erste Ergebnisse gezeigt", erklärt OpenAI und plant, dieses Tool Journalisten, Plattformen und Forschern zur Verfügung zu stellen, um Feedback zu erhalten. 

OpenAI integriert ChatGPT auch in die weltweite Echtzeit-Nachrichtenberichterstattung, um den Nutzern transparente Quellen für ihre Anfragen zu bieten. 

In den USA arbeitet OpenAI mit der National Association of Secretaries of State (NASS) zusammen, um ChatGPT-Benutzer auf CanIVote.org zu verweisen, wo sie maßgebliche Informationen zur US-Wahl finden. 

Sie beabsichtigen, die Erkenntnisse aus dieser Partnerschaft für Strategien in anderen Ländern zu nutzen.

Die brennenden Fragen bleiben: Ist das genug? Können KI-Unternehmen diese Probleme praktisch angehen, oder ist das Problem bereits außer Kontrolle geraten? 

Join The Future


HEUTE ABONNIEREN

Klar, prägnant, umfassend. Behalten Sie den Überblick über KI-Entwicklungen mit DailyAI

Sam Jeans

Sam ist ein Wissenschafts- und Technologiewissenschaftler, der in verschiedenen KI-Startups gearbeitet hat. Wenn er nicht gerade schreibt, liest er medizinische Fachzeitschriften oder kramt in Kisten mit Schallplatten.

×

KOSTENLOSES PDF EXKLUSIV
Mit DailyAI immer einen Schritt voraus

Melden Sie sich für unseren wöchentlichen Newsletter an und erhalten Sie exklusiven Zugang zum neuesten eBook von DailyAI: 'Mastering AI Tools: Ihr Leitfaden für mehr Produktivität im Jahr 2024".

*Mit der Anmeldung zu unserem Newsletter akzeptieren Sie unsere Datenschutzbestimmungen und unsere Bedingungen und Konditionen