{"id":3343,"date":"2023-07-28T20:34:47","date_gmt":"2023-07-28T20:34:47","guid":{"rendered":"https:\/\/dailyai.com\/?p=3343"},"modified":"2024-03-28T00:46:33","modified_gmt":"2024-03-28T00:46:33","slug":"unmasking-the-deep-seated-biases-in-ai-systems","status":"publish","type":"post","link":"https:\/\/dailyai.com\/de\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/","title":{"rendered":"Entlarvung der tief sitzenden Vorurteile in KI-Systemen"},"content":{"rendered":"<p><b>Das Zeitalter der k\u00fcnstlichen Intelligenz stellt ein komplexes Zusammenspiel zwischen Technologie und gesellschaftlicher Einstellung dar.\u00a0<\/b><\/p>\n<p><span style=\"font-weight: 400;\">Die zunehmende Raffinesse von KI-Systemen l\u00e4sst die Grenzen zwischen Mensch und Maschine verschwimmen - ist die KI-Technologie von uns getrennt? Inwieweit erbt die KI neben F\u00e4higkeiten und Wissen auch menschliche Schw\u00e4chen und Unzul\u00e4nglichkeiten?<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Es ist vielleicht verlockend, sich KI als eine empirische Technologie vorzustellen, die durch die Objektivit\u00e4t von Mathematik, Code und Berechnungen unterstrichen wird.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Wir haben jedoch erkannt, dass die von KI-Systemen getroffenen Entscheidungen sehr subjektiv sind und auf den Daten beruhen, denen sie ausgesetzt sind - und Menschen entscheiden, wie sie diese Daten ausw\u00e4hlen und zusammenstellen.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Darin liegt eine Herausforderung, denn die KI-Trainingsdaten verk\u00f6rpern oft die Vorurteile, die Voreingenommenheit und die Diskriminierung, die die Menschheit bek\u00e4mpft.<\/span><\/p>\n<p><span style=\"font-weight: 400;\"> Selbst scheinbar subtile Formen unbewusster Voreingenommenheit k\u00f6nnen durch das Modelltraining verst\u00e4rkt werden und sich schlie\u00dflich in Form von falschen Gesichts\u00fcbereinstimmungen bei der Strafverfolgung, verweigerten Krediten, Fehldiagnosen von Krankheiten und beeintr\u00e4chtigten Sicherheitsmechanismen f\u00fcr selbstfahrende Fahrzeuge usw. \u00e4u\u00dfern.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Die Versuche der Menschheit, Diskriminierung in der Gesellschaft zu verhindern, sind noch nicht abgeschlossen, aber die KI treibt die Entscheidungsfindung schon jetzt entscheidend voran.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">K\u00f6nnen wir schnell genug arbeiten, um KI mit modernen Werten zu synchronisieren und einseitige, lebensver\u00e4ndernde Entscheidungen und Verhaltensweisen zu verhindern?\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400;\">Voreingenommenheit in der KI entr\u00e4tseln<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">Im letzten Jahrzehnt haben KI-Systeme bewiesen, dass sie gesellschaftliche Vorurteile widerspiegeln. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Diese Systeme sind nicht von Natur aus voreingenommen, sondern nehmen die Voreingenommenheit ihrer Sch\u00f6pfer und der Daten, auf denen sie trainiert wurden, auf.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">KI-Systeme lernen wie Menschen, indem sie sich ihnen aussetzen. Das menschliche Gehirn ist ein scheinbar unendlicher Index von Informationen - eine Bibliothek mit nahezu unbegrenzten Regalen, in denen wir Erfahrungen, Wissen und Erinnerungen speichern.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Neurowissenschaftlich <\/span><a href=\"https:\/\/www.scientificamerican.com\/article\/can-your-brain-really-be-full\/\"><span style=\"font-weight: 400;\">Studien<\/span><\/a><span style=\"font-weight: 400;\"> zeigen, dass das Gehirn nicht wirklich eine \"maximale Kapazit\u00e4t\" hat und bis ins hohe Alter Informationen sortiert und speichert.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Der progressive, iterative Lernprozess des Gehirns ist zwar alles andere als perfekt, aber er hilft uns, uns an neue kulturelle und gesellschaftliche Werte anzupassen - vom Wahlrecht f\u00fcr Frauen \u00fcber die Akzeptanz unterschiedlicher Identit\u00e4ten bis hin zur Abschaffung der Sklaverei und anderer Formen bewusster Vorurteile. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">W<\/span><span style=\"font-weight: 400;\">ir leben heute in einem Zeitalter, in dem KI-Tools anstelle des menschlichen Urteilsverm\u00f6gens f\u00fcr wichtige Entscheidungen eingesetzt werden.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Viele Modelle des maschinellen Lernens (ML) lernen aus Trainingsdaten, die die Grundlage f\u00fcr ihre Entscheidungsfindung bilden, und k\u00f6nnen neue Informationen nicht so effizient aufnehmen wie das menschliche Gehirn. Daher k\u00f6nnen sie oft nicht die aktuellen, minutengenauen Entscheidungen treffen, die wir von ihnen erwarten.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">So werden beispielsweise KI-Modelle zur Identifizierung von Gesichts\u00fcbereinstimmungen f\u00fcr Strafverfolgungszwecke eingesetzt, <\/span><a href=\"https:\/\/dailyai.com\/de\/2023\/07\/ai-in-recruitment-are-the-risks-worth-the-rewards-of-speed-and-efficiency\/\"><span style=\"font-weight: 400;\">Analyse von Lebensl\u00e4ufen f\u00fcr Bewerbungen<\/span><\/a><span style=\"font-weight: 400;\">, und treffen gesundheitsrelevante Entscheidungen im klinischen Umfeld.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Da die Gesellschaft die KI immer weiter in unseren Alltag einbindet, m\u00fcssen wir sicherstellen, dass sie f\u00fcr alle gleich und genau ist. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Dies ist derzeit nicht der Fall.\u00a0\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400;\">Fallstudien zu KI-Voreingenommenheit<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">In der Praxis gibt es zahlreiche Beispiele f\u00fcr Vorurteile, Vorverurteilungen und Diskriminierung im Zusammenhang mit KI.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">In einigen F\u00e4llen sind die Auswirkungen von KI-Voreingenommenheit lebensver\u00e4ndernd, w\u00e4hrend sie in anderen F\u00e4llen im Hintergrund verbleiben und Entscheidungen subtil beeinflussen.\u00a0<\/span><\/p>\n<h3><span style=\"font-weight: 400;\">1. Die Verzerrung des MIT-Datensatzes<\/span><\/h3>\n<p><span style=\"font-weight: 400;\">Ein MIT-Trainingsdatensatz aus dem Jahr 2008 namens <\/span><a href=\"https:\/\/groups.csail.mit.edu\/vision\/TinyImages\/\"><span style=\"font-weight: 400;\">Winzige Bilder<\/span><\/a><span style=\"font-weight: 400;\"> enthielt etwa 80.000.000 Bilder in rund 75.000 Kategorien.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Urspr\u00fcnglich sollte es KI-Systemen das Erkennen von Personen und Objekten in Bildern beibringen und wurde zu einem beliebten Benchmarking-Datensatz f\u00fcr verschiedene Anwendungen im Bereich der Computer Vision (CV).\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">A 2020 <a href=\"https:\/\/www.theregister.com\/2020\/07\/01\/mit_dataset_removed\/\">Analyse von The Register<\/a> festgestellt, dass viele <\/span><span style=\"font-weight: 400;\">Tiny Images enthielt obsz\u00f6ne, rassistische und sexistische Aufschriften.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Antonio Torralba vom MIT sagte, das Labor sei sich dieser anst\u00f6\u00dfigen Bezeichnungen nicht bewusst gewesen und erkl\u00e4rte gegen\u00fcber The Register: \"Es ist klar, dass wir sie manuell h\u00e4tten \u00fcberpr\u00fcfen m\u00fcssen.\" Das MIT ver\u00f6ffentlichte sp\u00e4ter eine Erkl\u00e4rung, in der es mitteilte, dass es den Datensatz aus dem Verkehr gezogen habe.<\/span><\/p>\n<figure id=\"attachment_3344\" aria-describedby=\"caption-attachment-3344\" style=\"width: 1024px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-3344 size-large\" src=\"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/statement-1024x281.png\" alt=\"Winzige PNG-Anweisung\" width=\"1024\" height=\"281\" srcset=\"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/statement-1024x281.png 1024w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/statement-300x82.png 300w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/statement-768x211.png 768w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/statement-1536x421.png 1536w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/statement-2048x561.png 2048w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/statement-370x101.png 370w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/statement-800x219.png 800w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/statement-740x203.png 740w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/statement-20x5.png 20w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/statement-1600x439.png 1600w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/statement-175x48.png 175w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><figcaption id=\"caption-attachment-3344\" class=\"wp-caption-text\">Die Erkl\u00e4rung des MIT zu Tiny Images. Quelle: <a href=\"https:\/\/groups.csail.mit.edu\/vision\/TinyImages\/\">Winzige Bilder<\/a>.<\/figcaption><\/figure>\n<p><span style=\"font-weight: 400;\">Dies ist nicht das einzige Mal, dass ein ehemaliger Benchmark-Datensatz mit Problemen behaftet ist. Der Datensatz \"Labeled Faces in the Wild\" (LFW), ein Datensatz mit Gesichtern von Prominenten, der h\u00e4ufig f\u00fcr Gesichtserkennungsaufgaben verwendet wird, besteht aus 77,5% m\u00e4nnlichen und 83,5% wei\u00dfh\u00e4utigen Personen.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Viele dieser altgedienten Datens\u00e4tze fanden ihren Weg in moderne KI-Modelle, stammen aber aus einer \u00c4ra der KI-Entwicklung, in der der Schwerpunkt auf der Entwicklung von Systemen lag, die <\/span><i><span style=\"font-weight: 400;\">einfach arbeiten <\/span><\/i><span style=\"font-weight: 400;\">und nicht solche, die f\u00fcr den Einsatz in realen Szenarien geeignet sind.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Ist ein KI-System erst einmal auf einen solchen Datensatz trainiert, hat es nicht unbedingt das gleiche Privileg wie das menschliche Gehirn, sich auf aktuelle Werte einzustellen. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Modelle k\u00f6nnen zwar iterativ aktualisiert werden, aber das ist ein langsamer und unvollkommener Prozess, der nicht mit dem Tempo der menschlichen Entwicklung mithalten kann.\u00a0<\/span><\/p>\n<h3><span style=\"font-weight: 400;\">2: Bilderkennung: Vorurteile gegen\u00fcber dunkelh\u00e4utigen Personen<\/span><\/h3>\n<p><span style=\"font-weight: 400;\">Im Jahr 2019 wird die <\/span><a href=\"https:\/\/www.reuters.com\/article\/usa-crime-face\/u-s-government-study-finds-racial-bias-in-facial-recognition-tools-idINL1N28T29H\"><span style=\"font-weight: 400;\">US-Regierung gefunden<\/span><\/a><span style=\"font-weight: 400;\"> dass leistungsstarke Gesichtserkennungssysteme Schwarze 5 bis 10 Mal h\u00e4ufiger falsch identifizieren als Wei\u00dfe.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Es handelt sich dabei nicht nur um eine statistische Anomalie, sondern hat auch schwerwiegende Auswirkungen in der Praxis: von Google Fotos, die schwarze Menschen als Gorillas identifizieren, bis hin zu selbstfahrenden Autos, die dunkelh\u00e4utige Menschen nicht erkennen und in sie hineinfahren.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Dar\u00fcber hinaus gab es eine Reihe unrechtm\u00e4\u00dfiger Verhaftungen und Inhaftierungen, die mit falschen Gesichts\u00fcbereinstimmungen zusammenhingen, vielleicht am h\u00e4ufigsten <\/span><a href=\"https:\/\/www.engadget.com\/facial-recognition-wrongful-arrest-lawsuit-new-jersey-201517290.html\"><span style=\"font-weight: 400;\">Nijeer Parks'.<\/span><\/a><span style=\"font-weight: 400;\"> der f\u00e4lschlicherweise des Ladendiebstahls und des Stra\u00dfenverkehrsdelikts beschuldigt wurde, obwohl er 30 Meilen von dem Vorfall entfernt war. Parks verbrachte daraufhin 10 Tage im Gef\u00e4ngnis und musste Tausende von Gerichtskosten zahlen.\u00a0<\/span><\/p>\n<figure id=\"attachment_3345\" aria-describedby=\"caption-attachment-3345\" style=\"width: 1024px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-3345 size-large\" src=\"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/facialmatchparks-1024x576.jpg\" alt=\"Nijeer Parks\" width=\"1024\" height=\"576\" srcset=\"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/facialmatchparks-1024x576.jpg 1024w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/facialmatchparks-300x169.jpg 300w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/facialmatchparks-768x432.jpg 768w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/facialmatchparks-1536x864.jpg 1536w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/facialmatchparks-370x208.jpg 370w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/facialmatchparks-800x450.jpg 800w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/facialmatchparks-20x11.jpg 20w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/facialmatchparks-740x416.jpg 740w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/facialmatchparks-1600x900.jpg 1600w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/facialmatchparks-85x48.jpg 85w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/facialmatchparks.jpg 1920w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><figcaption id=\"caption-attachment-3345\" class=\"wp-caption-text\">Nijeer Parks' fehlerhafte \u00dcbereinstimmung bei der Gesichtserkennung. Quelle: <a href=\"https:\/\/edition.cnn.com\/2021\/04\/29\/tech\/nijeer-parks-facial-recognition-police-arrest\/index.html\">CNN<\/a>.<\/figcaption><\/figure>\n<p><span style=\"font-weight: 400;\">Die einflussreiche Studie von 2018, <\/span><a href=\"http:\/\/gendershades.org\/\"><span style=\"font-weight: 400;\">Gender-Farben<\/span><\/a><span style=\"font-weight: 400;\">Die Studie untersuchte au\u00dferdem algorithmische Verzerrungen. Die Studie analysierte Algorithmen von IBM und Microsoft und stellte fest, dass die Fehlerquote bei dunkelh\u00e4utigen Frauen bis zu 34% h\u00f6her war als bei hellh\u00e4utigen M\u00e4nnern.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Dieses Muster wurde bei 189 verschiedenen Algorithmen festgestellt. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Das nachstehende Video der leitenden Forscherin Joy Buolamwini bietet einen ausgezeichneten Leitfaden daf\u00fcr, wie die Leistung der Gesichtserkennung je nach Hautfarbe variiert.\u00a0<\/span><\/p>\n<p><iframe loading=\"lazy\" title=\"Gender-Farben\" width=\"1080\" height=\"608\" src=\"https:\/\/www.youtube.com\/embed\/TWWsW1w-BVo?feature=oembed\" frameborder=\"0\" allow=\"accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share\" referrerpolicy=\"strict-origin-when-cross-origin\" allowfullscreen><\/iframe><\/p>\n<h3><\/h3>\n<h3><span style=\"font-weight: 400;\">3: Das CLIP-Projekt von OpenAI<\/span><\/h3>\n<p><span style=\"font-weight: 400;\">OpenAIs <\/span><a href=\"https:\/\/openai.com\/research\/clip\"><span style=\"font-weight: 400;\">CLIP-Projekt<\/span><\/a><span style=\"font-weight: 400;\">die 2021 ver\u00f6ffentlicht wurde und Bilder mit beschreibendem Text abgleichen soll, zeigte ebenfalls die anhaltenden Probleme mit Verzerrungen.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">In einem Audit-Papier wiesen die CLIP-Macher auf ihre Bedenken hin: \"CLIP hat einige Bezeichnungen, die hochrangige Berufe beschreiben, \u00fcberproportional oft an M\u00e4nner vergeben, wie z. B. 'F\u00fchrungskraft' und 'Arzt'. Dies \u00e4hnelt den Verzerrungen, die bei Google Cloud Vision (GCV) festgestellt wurden, und deutet auf historische geschlechtsspezifische Unterschiede hin.\"<\/span><\/p>\n<figure id=\"attachment_3346\" aria-describedby=\"caption-attachment-3346\" style=\"width: 1024px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" class=\"wp-image-3346 size-large\" src=\"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/CLIP-1024x539.png\" alt=\"OpenAI CLIP\" width=\"1024\" height=\"539\" srcset=\"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/CLIP-1024x539.png 1024w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/CLIP-300x158.png 300w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/CLIP-768x404.png 768w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/CLIP-370x195.png 370w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/CLIP-800x421.png 800w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/CLIP-20x11.png 20w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/CLIP-740x389.png 740w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/CLIP-91x48.png 91w, https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/CLIP.png 1120w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><figcaption id=\"caption-attachment-3346\" class=\"wp-caption-text\">CLIP neigt dazu, M\u00e4nner und Frauen mit problematischen Stereotypen wie \"Dame\" und \"blond\" zu assoziieren. Quelle: <a href=\"https:\/\/arxiv.org\/pdf\/2108.02818.pdf\">Bewertung von CLIP<\/a>.<\/figcaption><\/figure>\n<h3><span style=\"font-weight: 400;\">4: Strafverfolgung: die PredPol-Kontroverse<\/span><\/h3>\n<p><span style=\"font-weight: 400;\">Ein weiteres Beispiel f\u00fcr algorithmische Voreingenommenheit, bei dem viel auf dem Spiel steht, ist <\/span><a href=\"https:\/\/en.wikipedia.org\/wiki\/PredPol\"><span style=\"font-weight: 400;\">PredPol<\/span><\/a><span style=\"font-weight: 400;\">ein Algorithmus zur vorausschauenden Polizeiarbeit, der von verschiedenen Polizeidienststellen in den Vereinigten Staaten eingesetzt wird.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">PredPol wurde anhand historischer Verbrechensdaten trainiert, um k\u00fcnftige Kriminalit\u00e4tsschwerpunkte vorherzusagen.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Da diese Daten jedoch inh\u00e4rent voreingenommene Polizeipraktiken widerspiegeln, wurde der Algorithmus daf\u00fcr kritisiert, dass er die Erstellung von Rassenprofilen aufrechterh\u00e4lt und unverh\u00e4ltnism\u00e4\u00dfig viele Minderheitenviertel ins Visier nimmt.<\/span><\/p>\n<h3><span style=\"font-weight: 400;\">5: Voreingenommenheit in der Dermatologie AI<\/span><\/h3>\n<p><span style=\"font-weight: 400;\">Im Gesundheitswesen werden die potenziellen Risiken der KI-Voreingenommenheit noch deutlicher.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Nehmen wir das Beispiel der KI-Systeme, die zur Erkennung von Hautkrebs entwickelt wurden. Viele dieser Systeme werden anhand von Datens\u00e4tzen trainiert, die \u00fcberwiegend aus hellh\u00e4utigen Personen bestehen.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">A 2021 <\/span><a href=\"https:\/\/www.thelancet.com\/journals\/landig\/article\/PIIS2589-7500(21)00252-1\/fulltext\"><span style=\"font-weight: 400;\">Studie der Universit\u00e4t von Oxford<\/span><\/a><span style=\"font-weight: 400;\"> untersuchten 21 frei zug\u00e4ngliche Datens\u00e4tze auf Bilder von Hautkrebs. Sie entdeckten, dass von den 14 Datens\u00e4tzen, die ihre geografische Herkunft offenlegten, 11 ausschlie\u00dflich aus Bildern aus Europa, Nordamerika und Ozeanien bestanden.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Nur 2.436 der 106.950 Bilder in den 21 Datenbanken enthielten Angaben zum Hauttyp. Die Forscher stellten fest, dass \"nur 10 Bilder von Personen mit brauner Haut und eines von einer Person mit dunkelbrauner oder schwarzer Haut aufgenommen wurden\".<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Was die Angaben zur ethnischen Zugeh\u00f6rigkeit betrifft, so enthielten nur 1.585 Bilder diese Informationen. Die Forscher stellten fest, dass \"keine Bilder von Personen mit afrikanischem, afrikanisch-karibischem oder s\u00fcdasiatischem Hintergrund\" stammten.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Sie kamen zu dem Schluss, dass \"in Verbindung mit der geografischen Herkunft der Datens\u00e4tze eine massive Unterrepr\u00e4sentation von Bildern mit Hautl\u00e4sionen aus dunkelh\u00e4utigen Bev\u00f6lkerungsgruppen festzustellen war\".<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Wenn solche KI im klinischen Umfeld eingesetzt werden, besteht aufgrund der verzerrten Datens\u00e4tze ein sehr reales Risiko von Fehldiagnosen.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400;\">Analyse von Verzerrungen in KI-Trainingsdaten: ein Produkt ihrer Sch\u00f6pfer?<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">Trainingsdaten - meist Text-, Sprach-, Bild- und Videodaten - bieten einem \u00fcberwachten Modell f\u00fcr maschinelles Lernen (ML) eine Grundlage f\u00fcr das Lernen von Konzepten.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">KI-Systeme sind zu Beginn nichts anderes als leere Leinw\u00e4nde. Sie lernen und bilden Assoziationen auf der Grundlage unserer Daten, wobei sie im Wesentlichen ein Bild der Welt malen, wie es von ihren Trainingsdaten dargestellt wird.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Durch das Lernen aus Trainingsdaten hofft man, dass das Modell die gelernten Konzepte auf neue, ungesehene Daten anwenden kann.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Sobald sie eingesetzt werden, k\u00f6nnen einige fortgeschrittene Modelle aus neuen Daten lernen, aber ihre Trainingsdaten bestimmen immer noch ihre grundlegende Leistung.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Die erste Frage, die es zu beantworten gilt, lautet: Woher stammen die Daten? Daten, die aus nicht repr\u00e4sentativen, oft homogenen und historisch ungleichen Quellen stammen, sind problematisch.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Dies gilt wahrscheinlich f\u00fcr eine betr\u00e4chtliche Menge von Online-Daten, einschlie\u00dflich Text- und Bilddaten, die aus \"offenen\" oder \"\u00f6ffentlichen\" Quellen stammen.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Das Internet, das erst vor wenigen Jahrzehnten entwickelt wurde, ist kein Allheilmittel f\u00fcr das menschliche Wissen und weit davon entfernt, gerecht zu sein. Die H\u00e4lfte der Welt nutzt das Internet nicht, geschweige denn leistet einen Beitrag dazu, was bedeutet, dass es die globale Gesellschaft und Kultur im Grunde nicht repr\u00e4sentiert.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Und obwohl die KI-Entwickler st\u00e4ndig daran arbeiten, die Vorteile der Technologie nicht auf die englischsprachige Welt zu beschr\u00e4nken, werden die meisten Trainingsdaten (Text und Sprache) in englischer Sprache produziert - was bedeutet, dass englischsprachige Mitarbeiter die Modellausgabe steuern.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Forscher von Anthropic haben k\u00fcrzlich <\/span><a href=\"https:\/\/dailyai.com\/de\/2023\/06\/anthropic-releases-paper-highlighting-the-potential-bias-of-large-language-models\/\"><span style=\"font-weight: 400;\">ein Papier ver\u00f6ffentlicht<\/span><\/a><span style=\"font-weight: 400;\"> zu genau diesem Thema und kommt zu dem Schluss: \"Wenn ein Sprachmodell bestimmte Meinungen unverh\u00e4ltnism\u00e4\u00dfig stark repr\u00e4sentiert, besteht die Gefahr, dass es potenziell unerw\u00fcnschte Auswirkungen hat, wie die F\u00f6rderung hegemonialer Weltanschauungen und die Homogenisierung der Perspektiven und \u00dcberzeugungen der Menschen\".<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Letztlich funktionieren KI-Systeme zwar auf der Grundlage \"objektiver\" Prinzipien der Mathematik und der Programmierung, sie existieren jedoch in einem zutiefst subjektiven sozialen Kontext und werden von diesem gepr\u00e4gt.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400;\">M\u00f6gliche L\u00f6sungen f\u00fcr algorithmische Verzerrungen<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">Wenn Daten das Grundproblem sind, scheint die L\u00f6sung f\u00fcr die Entwicklung gerechter Modelle einfach: Man macht einfach ausgewogenere Datens\u00e4tze, richtig?\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Nicht ganz. A <\/span><a href=\"https:\/\/arxiv.org\/abs\/1811.08489\"><span style=\"font-weight: 400;\">Studie 2019<\/span><\/a><span style=\"font-weight: 400;\"> hat gezeigt, dass der Abgleich von Datens\u00e4tzen unzureichend ist, da Algorithmen immer noch unverh\u00e4ltnism\u00e4\u00dfig stark auf gesch\u00fctzte Merkmale wie Geschlecht und Rasse einwirken.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Die Autoren schreiben: \"\u00dcberraschenderweise zeigen wir, dass selbst bei ausgeglichenen Datens\u00e4tzen, bei denen jedes Label gleich h\u00e4ufig mit jedem Geschlecht vorkommt, die gelernten Modelle die Assoziation zwischen Label und Geschlecht genauso stark verst\u00e4rken, wie wenn die Daten nicht ausgeglichen w\u00e4ren!\"\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Sie schlagen eine Entsch\u00e4rfungstechnik vor, bei der solche Kennzeichnungen vollst\u00e4ndig aus dem Datensatz entfernt werden. Andere Techniken umfassen das Hinzuf\u00fcgen von zuf\u00e4lligen St\u00f6rungen und Verzerrungen, die die Aufmerksamkeit eines Algorithmus auf bestimmte gesch\u00fctzte Merkmale verringern.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Auch wenn die Modifizierung von Trainingsmethoden f\u00fcr das maschinelle Lernen und die Optimierung f\u00fcr die Erzeugung unvoreingenommener Ergebnisse unabdingbar sind, sind fortgeschrittene Modelle anf\u00e4llig f\u00fcr Ver\u00e4nderungen oder \"Drift\", d. h. ihre Leistung bleibt nicht unbedingt langfristig konstant.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Ein Modell kann bei der Einf\u00fchrung v\u00f6llig unvoreingenommen sein, aber sp\u00e4ter mit zunehmender Exposition gegen\u00fcber neuen Daten verzerrt werden.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400;\">Die Bewegung f\u00fcr algorithmische Transparenz<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">In ihrem provokativen Buch <\/span><i><span style=\"font-weight: 400;\">K\u00fcnstliche Unintelligenz: Wie Computer die Welt missverstehen<\/span><\/i><span style=\"font-weight: 400;\">Meredith Broussard pl\u00e4diert f\u00fcr mehr \"algorithmische Transparenz\", um KI-Systeme auf mehreren Ebenen einer st\u00e4ndigen \u00dcberpr\u00fcfung zu unterziehen.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Dies bedeutet, dass klare Informationen dar\u00fcber bereitgestellt werden m\u00fcssen, wie das System funktioniert, wie es trainiert wurde und mit welchen Daten es trainiert wurde.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">W\u00e4hrend Transparenzinitiativen leicht in die Open-Source-KI-Landschaft aufgenommen werden, sind propriet\u00e4re Modelle wie GPT, Bard und Anthropic's Claude \"Black Boxes\", und nur ihre Entwickler wissen genau, wie sie funktionieren - und selbst das ist umstritten.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Das \"Blackbox\"-Problem in der KI bedeutet, dass externe Beobachter nur sehen, was in das Modell hineingeht (Eingaben) und was herauskommt (Ausgaben). Die inneren Mechanismen sind au\u00dfer ihren Sch\u00f6pfern v\u00f6llig unbekannt - \u00e4hnlich wie der magische Zirkel die Geheimnisse der Zauberer sch\u00fctzt. Die KI zieht einfach das Kaninchen aus dem Hut.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Die Blackbox-Problematik kristallisierte sich k\u00fcrzlich durch Berichte \u00fcber <\/span><a href=\"https:\/\/dailyai.com\/de\/2023\/07\/is-chatgpt-getting-worse-heres-everything-we-know-so-far\/\"><span style=\"font-weight: 400;\">Der m\u00f6gliche Leistungsabfall von GPT-4<\/span><\/a><span style=\"font-weight: 400;\">. GPT-4-Benutzer argumentieren, dass die F\u00e4higkeiten des Modells rapide abgenommen haben, und w\u00e4hrend OpenAI best\u00e4tigt, dass dies wahr ist, haben sie nicht ganz klar gemacht, warum das passiert. Das wirft die Frage auf, ob sie es \u00fcberhaupt wissen.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Der KI-Forscher Dr. Sasha Luccioni sagt, dass die mangelnde Transparenz von OpenAI ein Problem ist, das auch f\u00fcr andere propriet\u00e4re oder geschlossene KI-Modellentwickler gilt. \"Alle Ergebnisse von Closed-Source-Modellen sind nicht reproduzierbar und nicht \u00fcberpr\u00fcfbar, und daher vergleichen wir aus wissenschaftlicher Sicht Waschb\u00e4ren und Eichh\u00f6rnchen. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">&#8220;<\/span><span style=\"font-weight: 400;\">Es liegt nicht an den Wissenschaftlern, die eingesetzten LLMs st\u00e4ndig zu \u00fcberwachen. Es ist die Aufgabe der Modellentwickler, Zugang zu den zugrunde liegenden Modellen zu gew\u00e4hren, zumindest f\u00fcr Pr\u00fcfungszwecke\", sagte sie.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Luccioni betonte, dass die Entwickler von KI-Modellen Rohergebnisse von Standard-Benchmarks wie SuperGLUE und WikiText sowie von Bias-Benchmarks wie BOLD und HONEST bereitstellen sollten.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Der Kampf gegen KI-gesteuerte Voreingenommenheit und Vorurteile wird wahrscheinlich ein st\u00e4ndiger sein und erfordert st\u00e4ndige Aufmerksamkeit und Forschung, um die Ergebnisse der Modelle in Schach zu halten, w\u00e4hrend sich KI und Gesellschaft gemeinsam weiterentwickeln.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">W\u00e4hrend die Regulierung Formen der \u00dcberwachung und Berichterstattung vorschreiben wird, gibt es nur wenige feste und schnelle L\u00f6sungen f\u00fcr das Problem der algorithmischen Verzerrung, und wir werden nicht zum letzten Mal davon h\u00f6ren.<\/span><\/p>","protected":false},"excerpt":{"rendered":"<p>Das Zeitalter der KI stellt ein komplexes Zusammenspiel zwischen Technologie und gesellschaftlicher Einstellung dar.  Die zunehmende Raffinesse der KI-Systeme l\u00e4sst die Grenzen zwischen Mensch und Maschine verschwimmen - ist die KI-Technologie von uns getrennt? Inwieweit erbt die KI neben F\u00e4higkeiten und Wissen auch menschliche Schw\u00e4chen und Unzul\u00e4nglichkeiten? Es ist vielleicht verlockend, sich KI als eine empirische Technologie vorzustellen, die durch die Objektivit\u00e4t von Mathematik, Code und Berechnungen unterstrichen wird.  Wir haben jedoch erkannt, dass die von KI-Systemen getroffenen Entscheidungen h\u00f6chst subjektiv sind und auf den Daten beruhen, denen sie ausgesetzt sind - und Menschen entscheiden, wie sie diese Daten ausw\u00e4hlen und zusammenstellen.\u00a0<\/p>","protected":false},"author":2,"featured_media":3347,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[88],"tags":[148,213,118,117,93,257],"class_list":["post-3343","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ethics","tag-anthropic","tag-bias","tag-llms","tag-mit","tag-openai","tag-prejudice"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.4 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Unmasking the deep-seated biases in AI systems | DailyAI<\/title>\n<meta name=\"description\" content=\"The increased sophistication of AI systems is blurring the lines between humans and machines \u2013 is AI technology separate from ourselves?\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/dailyai.com\/de\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/\" \/>\n<meta property=\"og:locale\" content=\"de_DE\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Unmasking the deep-seated biases in AI systems | DailyAI\" \/>\n<meta property=\"og:description\" content=\"The increased sophistication of AI systems is blurring the lines between humans and machines \u2013 is AI technology separate from ourselves?\" \/>\n<meta property=\"og:url\" content=\"https:\/\/dailyai.com\/de\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/\" \/>\n<meta property=\"og:site_name\" content=\"DailyAI\" \/>\n<meta property=\"article:published_time\" content=\"2023-07-28T20:34:47+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-03-28T00:46:33+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/shutterstock_2319661185.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"1000\" \/>\n\t<meta property=\"og:image:height\" content=\"527\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Sam Jeans\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:site\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:label1\" content=\"Verfasst von\" \/>\n\t<meta name=\"twitter:data1\" content=\"Sam Jeans\" \/>\n\t<meta name=\"twitter:label2\" content=\"Gesch\u00e4tzte Lesezeit\" \/>\n\t<meta name=\"twitter:data2\" content=\"10\u00a0Minuten\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"NewsArticle\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/07\\\/unmasking-the-deep-seated-biases-in-ai-systems\\\/#article\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/07\\\/unmasking-the-deep-seated-biases-in-ai-systems\\\/\"},\"author\":{\"name\":\"Sam Jeans\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\"},\"headline\":\"Unmasking the deep-seated biases in AI systems\",\"datePublished\":\"2023-07-28T20:34:47+00:00\",\"dateModified\":\"2024-03-28T00:46:33+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/07\\\/unmasking-the-deep-seated-biases-in-ai-systems\\\/\"},\"wordCount\":2105,\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/07\\\/unmasking-the-deep-seated-biases-in-ai-systems\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/07\\\/shutterstock_2319661185.jpg\",\"keywords\":[\"Anthropic\",\"Bias\",\"LLMS\",\"MIT\",\"OpenAI\",\"prejudice\"],\"articleSection\":[\"Ethics &amp; Society\"],\"inLanguage\":\"de\"},{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/07\\\/unmasking-the-deep-seated-biases-in-ai-systems\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/07\\\/unmasking-the-deep-seated-biases-in-ai-systems\\\/\",\"name\":\"Unmasking the deep-seated biases in AI systems | DailyAI\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/07\\\/unmasking-the-deep-seated-biases-in-ai-systems\\\/#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/07\\\/unmasking-the-deep-seated-biases-in-ai-systems\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/07\\\/shutterstock_2319661185.jpg\",\"datePublished\":\"2023-07-28T20:34:47+00:00\",\"dateModified\":\"2024-03-28T00:46:33+00:00\",\"description\":\"The increased sophistication of AI systems is blurring the lines between humans and machines \u2013 is AI technology separate from ourselves?\",\"breadcrumb\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/07\\\/unmasking-the-deep-seated-biases-in-ai-systems\\\/#breadcrumb\"},\"inLanguage\":\"de\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\\\/\\\/dailyai.com\\\/2023\\\/07\\\/unmasking-the-deep-seated-biases-in-ai-systems\\\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/07\\\/unmasking-the-deep-seated-biases-in-ai-systems\\\/#primaryimage\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/07\\\/shutterstock_2319661185.jpg\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/07\\\/shutterstock_2319661185.jpg\",\"width\":1000,\"height\":527,\"caption\":\"AI bias\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/07\\\/unmasking-the-deep-seated-biases-in-ai-systems\\\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\\\/\\\/dailyai.com\\\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Unmasking the deep-seated biases in AI systems\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"name\":\"DailyAI\",\"description\":\"Your Daily Dose of AI News\",\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/dailyai.com\\\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"de\"},{\"@type\":\"Organization\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\",\"name\":\"DailyAI\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"width\":4501,\"height\":934,\"caption\":\"DailyAI\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\"},\"sameAs\":[\"https:\\\/\\\/x.com\\\/DailyAIOfficial\",\"https:\\\/\\\/www.linkedin.com\\\/company\\\/dailyaiofficial\\\/\",\"https:\\\/\\\/www.youtube.com\\\/@DailyAIOfficial\"]},{\"@type\":\"Person\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\",\"name\":\"Sam Jeans\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"url\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"contentUrl\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"caption\":\"Sam Jeans\"},\"description\":\"Sam is a science and technology writer who has worked in various AI startups. When he\u2019s not writing, he can be found reading medical journals or digging through boxes of vinyl records.\",\"sameAs\":[\"https:\\\/\\\/www.linkedin.com\\\/in\\\/sam-jeans-6746b9142\\\/\"],\"url\":\"https:\\\/\\\/dailyai.com\\\/de\\\/author\\\/samjeans\\\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Entlarvung der tief sitzenden Vorurteile in KI-Systemen | DailyAI","description":"Die zunehmende Raffinesse von KI-Systemen l\u00e4sst die Grenzen zwischen Mensch und Maschine verschwimmen - ist die KI-Technologie von uns getrennt?","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/dailyai.com\/de\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/","og_locale":"de_DE","og_type":"article","og_title":"Unmasking the deep-seated biases in AI systems | DailyAI","og_description":"The increased sophistication of AI systems is blurring the lines between humans and machines \u2013 is AI technology separate from ourselves?","og_url":"https:\/\/dailyai.com\/de\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/","og_site_name":"DailyAI","article_published_time":"2023-07-28T20:34:47+00:00","article_modified_time":"2024-03-28T00:46:33+00:00","og_image":[{"width":1000,"height":527,"url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/shutterstock_2319661185.jpg","type":"image\/jpeg"}],"author":"Sam Jeans","twitter_card":"summary_large_image","twitter_creator":"@DailyAIOfficial","twitter_site":"@DailyAIOfficial","twitter_misc":{"Verfasst von":"Sam Jeans","Gesch\u00e4tzte Lesezeit":"10\u00a0Minuten"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"NewsArticle","@id":"https:\/\/dailyai.com\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/#article","isPartOf":{"@id":"https:\/\/dailyai.com\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/"},"author":{"name":"Sam Jeans","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9"},"headline":"Unmasking the deep-seated biases in AI systems","datePublished":"2023-07-28T20:34:47+00:00","dateModified":"2024-03-28T00:46:33+00:00","mainEntityOfPage":{"@id":"https:\/\/dailyai.com\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/"},"wordCount":2105,"publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"image":{"@id":"https:\/\/dailyai.com\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/shutterstock_2319661185.jpg","keywords":["Anthropic","Bias","LLMS","MIT","OpenAI","prejudice"],"articleSection":["Ethics &amp; Society"],"inLanguage":"de"},{"@type":"WebPage","@id":"https:\/\/dailyai.com\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/","url":"https:\/\/dailyai.com\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/","name":"Entlarvung der tief sitzenden Vorurteile in KI-Systemen | DailyAI","isPartOf":{"@id":"https:\/\/dailyai.com\/#website"},"primaryImageOfPage":{"@id":"https:\/\/dailyai.com\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/#primaryimage"},"image":{"@id":"https:\/\/dailyai.com\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/shutterstock_2319661185.jpg","datePublished":"2023-07-28T20:34:47+00:00","dateModified":"2024-03-28T00:46:33+00:00","description":"Die zunehmende Raffinesse von KI-Systemen l\u00e4sst die Grenzen zwischen Mensch und Maschine verschwimmen - ist die KI-Technologie von uns getrennt?","breadcrumb":{"@id":"https:\/\/dailyai.com\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/#breadcrumb"},"inLanguage":"de","potentialAction":[{"@type":"ReadAction","target":["https:\/\/dailyai.com\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/"]}]},{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/dailyai.com\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/#primaryimage","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/shutterstock_2319661185.jpg","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/07\/shutterstock_2319661185.jpg","width":1000,"height":527,"caption":"AI bias"},{"@type":"BreadcrumbList","@id":"https:\/\/dailyai.com\/2023\/07\/unmasking-the-deep-seated-biases-in-ai-systems\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/dailyai.com\/"},{"@type":"ListItem","position":2,"name":"Unmasking the deep-seated biases in AI systems"}]},{"@type":"WebSite","@id":"https:\/\/dailyai.com\/#website","url":"https:\/\/dailyai.com\/","name":"DailyAI","description":"Ihre t\u00e4gliche Dosis an AI-Nachrichten","publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/dailyai.com\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"de"},{"@type":"Organization","@id":"https:\/\/dailyai.com\/#organization","name":"DailyAI","url":"https:\/\/dailyai.com\/","logo":{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","width":4501,"height":934,"caption":"DailyAI"},"image":{"@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/x.com\/DailyAIOfficial","https:\/\/www.linkedin.com\/company\/dailyaiofficial\/","https:\/\/www.youtube.com\/@DailyAIOfficial"]},{"@type":"Person","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9","name":"Sam Jeans","image":{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","caption":"Sam Jeans"},"description":"Sam ist ein Wissenschafts- und Technologiewissenschaftler, der in verschiedenen KI-Startups gearbeitet hat. Wenn er nicht gerade schreibt, liest er medizinische Fachzeitschriften oder kramt in Kisten mit Schallplatten.","sameAs":["https:\/\/www.linkedin.com\/in\/sam-jeans-6746b9142\/"],"url":"https:\/\/dailyai.com\/de\/author\/samjeans\/"}]}},"_links":{"self":[{"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/posts\/3343","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/comments?post=3343"}],"version-history":[{"count":19,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/posts\/3343\/revisions"}],"predecessor-version":[{"id":3369,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/posts\/3343\/revisions\/3369"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/media\/3347"}],"wp:attachment":[{"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/media?parent=3343"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/categories?post=3343"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/tags?post=3343"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}