KI kann uns mit ihrer scheinbaren Objektivität blenden, obwohl sie in Wirklichkeit zutiefst subjektiv und anfällig für Verzerrungen ist.
Zahlreiche Studien belegen KI-bezogene VoreingenommenheitDie meisten Auswirkungen sind bei dunkelhäutigen Personen und Frauen zu beobachten.
Es gibt viele historische Lektionen in Bezug auf voreingenommene KI, darunter Amazons gescheitertes Rekrutierungsmodell, das es nicht schaffte, Frauen fair für Tech-Rollen zu empfehlen, und Gesichtserkennungsmodelle, die fälschlicherweise mehrere schwarze Männer identifizierten, was zu langwierigen rechtlichen Problemen führte.
In dem Maße, in dem KI tief in unser tägliches Leben eindringt, wird die Frage der Voreingenommenheit immer wichtiger, da einige dieser Systeme in unserem Namen lebensverändernde Entscheidungen treffen.
Frauen sind besorgt darüber, dass KI-Systeme ihnen nicht in gleichem Maße nützen oder dienen wie Männern, was zu schlechten und ungerechten Entscheidungen führt.
Catherine Flick, Forscherin für Informatik und soziale Verantwortung an der De Montfort University, Großbritannien, kommentierte: "Es ist eine Verstärkung einer technozentrischen, patriarchalischen Gesellschaft, die wieder einmal geschlechtsspezifische Vorurteile in scheinbar 'neutrale' Technologie einbaut."
Flick weist darauf hin, dass selbst Technologien, die wir als neutral betrachten, wie Autos oder die moderne Medizin, nicht unbedingt den Bedürfnissen von Frauen in gleichem Maße gerecht werden wie denen von Männern.
McKinsey's jüngste Projektionen deuten darauf hin, dass die KI Arbeitsplätze verdrängen könnte, wobei Frauen 1,5-mal stärker von einer Verdrängung durch KI betroffen sind als Männer.
Dr. Sasha Luccioni von der KI-Entwicklungsfirma HuggingFace sagt über das gescheiterte Rekrutierungsprojekt von Amazon, bei dem Bewerbungen, die das Wort "Frauen" oder "Frauen" enthielten, direkt benachteiligt wurden: "Frauen waren in den Daten so unterrepräsentiert, dass das Modell im Grunde jedes Mal, wenn 'Frauen' auftauchte, ablehnte."
Einige klassische Datensätze, die für das Benchmarking des maschinellen Lernens (ML) verwendet werden, haben gezeigt, dass sie überwiegend aus weißen Männern bestehen.
Luccioni fuhr fort: "Es gibt nur sehr wenige Frauen, die in diesem Bereich arbeiten, und nur sehr wenige Frauen, die einen Sitz am Tisch haben." Dieser Mangel an Repräsentation ist wichtig, weil Algorithmen, so Luccioni, Werte vermitteln. Diese Werte spiegeln nicht unbedingt eine vielfältige Perspektive wider, wenn die Entwickler überwiegend männlich sind.
Dieses Ungleichgewicht zwischen den Geschlechtern ist auch bei den KI-Trainingsdaten offensichtlich. Viele große Sprachmodelle wie ChatGPT verwenden zum Training Datensätze von Plattformen wie Reddit, wo etwa zwei Drittel der Nutzer männlich sind. Infolgedessen können diese KI-Systeme Ergebnisse produzieren, die männlich geprägte Konversationen widerspiegeln.
Adressierung Die Vorurteile der KI erfordert einen ganzheitlichen Ansatz, argumentiert Flick.
Von der Datenerfassung bis zur technischen Umsetzung ist eine größere Vielfalt erforderlich. "Wenn die eingehenden Daten nicht gut genug sind, sollten sie gar nicht erst in die Entwicklungsphase gelangen", betont sie.