Das Weiße Haus hat kürzlich Hacker angeworben, um die KI-Technologie unter die Lupe zu nehmen.
Dies war Teil eines umfassenden öffentlichen Red-Teaming-Wettbewerbs, der während der Verteidigungsministerium Hacker-Kongress in Las Vegas.
Das Konzept des Red-Teaming - die Durchführung aggressiver Tests zur Aufdeckung technologischer Verzerrungen und Ungenauigkeiten - ist im Allgemeinen eine interne Angelegenheit.
Die Allgegenwärtigkeit öffentlicher KI wie ChatGPT übt jedoch Druck auf die Entwickler aus, ihre Tools einer intensiven Prüfung zu unterziehen, was auch vom Weißen Haus gefordert wird.
Auf der diesjährigen Def Con wurde die KI-Technologie von Tech-Giganten wie Google und OpenAI ins Rampenlicht gerückt, während Hacker versuchten, Probleme mit Vorurteilen und Diskriminierung aufzudecken.
An der Sitzung nahm auch Arati Prabhakar, Leiterin des Büros für Wissenschafts- und Technologiepolitik im Weißen Haus, teil.
Kelsey Davis, Gründerin und CEO des Technologieunternehmens CLLCTVE, gehörte zu den Hunderten von Hackern, die an dem Wettbewerb teilnahmen.
Davis erklärte ihre Begeisterung über die Veranstaltung gegenüber NPR: "Das ist eine wirklich coole Möglichkeit, einfach die Ärmel hochzukrempeln. Sie helfen dabei, etwas zu entwickeln, das gerechter und inklusiver ist."
Eindämmung von KI-Voreingenommenheit
Davis konzentrierte sich darauf, demografische Stereotypen in KI-Antworten aufzudecken.
Während der Chatbot auf bestimmte Fragen angemessen reagierte, zeigte er eine eklatante rassistische Voreingenommenheit, als er nach einem Szenario gefragt wurde, in dem es um den Besuch einer Historically Black College or University (HBCU) ging.
"Das ist gut - das bedeutet, dass ich es gebrochen habe", bemerkte Davis, nachdem der KI-Chatbot stereotype Vorurteile gezeigt hatte. Inzwischen hat sie ihre Ergebnisse eingereicht, die bei der weiteren Verfeinerung der Technologie berücksichtigt werden sollen.
Das Engagement des Weißen Hauses unterstreicht die entscheidende Bedeutung des Red-Teaming bei der Bekämpfung von KI-Vorurteilen.
Prabhakar erklärte: "Diese Herausforderung enthält viele der Elemente, die wir sehen müssen. Sie ist strukturiert, sie ist unabhängig, sie ist eine verantwortungsvolle Berichterstattung und sie bringt viele verschiedene Leute mit vielen verschiedenen Hintergründen an den Tisch".
KI-Voreingenommenheit ist für viele Menschen ein sehr reales Problem. So wurde beispielsweise festgestellt, dass ein Rekrutierungstool von Amazon Bewerbungen von Frauen benachteiligt, und mindestens fünf schwarze Männer wurden in den USA aufgrund von falsche Gesichtserkennung Streichhölzer.
Forscher arbeiten daran KI-Voreingenommenheit aufdecken Das Problem liegt oft in den Trainingsdaten, die oft nicht repräsentativ für die verschiedenen Bevölkerungsgruppen sind, denen die KI dienen soll.
Die Organisatoren der Def Con bemühten sich um eine vielfältige Teilnehmergruppe für die Red-Teaming-Herausforderung, indem sie Partnerschaften mit Volkshochschulen und gemeinnützigen Organisationen wie Black Tech Street eingingen.
Tyrance Billingsley, Gründer von Black Tech Street, sagte: "KI ist entscheidend. Und wir müssen hier sein".
In den kommenden Monaten werden die Technologieunternehmen die eingereichten Bewerbungen prüfen und versuchen, die notwendigen Anpassungen an ihren KI-Modellen vorzunehmen, um Verzerrungen abzumildern.