Das Narrativ über die Risiken der KI ist zunehmend unipolar geworden, wobei Technologieführer und Experten aus allen Ecken auf eine Regulierung drängen. Wie glaubwürdig sind die Beweise, die die Risiken der KI belegen?
Die Risiken der KI appellieren an die Sinne. Es hat etwas zutiefst Intuitives, sich vor Robotern zu fürchten, die uns täuschen, uns überwältigen oder uns zu einer Ware machen könnten, die ihrer eigenen Existenz untergeordnet ist.
Die Debatten über die Risiken der KI haben sich nach der tDer gemeinnützige Zentrum für KI-Sicherheit (CAIS) veröffentlichte eine Anweisung unterzeichnet von über 350 namhaften Persönlichkeiten, darunter die CEOs von OpenAI, Anthropic und DeepMind, zahlreiche Akademiker, Persönlichkeiten des öffentlichen Lebens und sogar ehemalige Politiker.
Der Titel der Erklärung war für die Schlagzeilen bestimmt: "Die Minderung des Risikos des Aussterbens durch KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg eine globale Priorität sein.
Es ist immer schwieriger geworden, aus dieser lauten Debatte ein sinnvolles Signal herauszuholen. Die Kritiker von KI haben alle Munition, die sie brauchen, um dagegen zu argumentieren, während die Befürworter oder Zauderer alles haben, was sie brauchen, um die Anti-AI-Narrative als übertrieben zu bezeichnen.
Und es gibt auch noch eine Nebenhandlung. Big Tech könnte auf eine Regulierung drängen, um die KI-Industrie einzugrenzen aus der Open-Source-Gemeinschaft. Microsoft investierte in OpenAI, Google in Anthropic - der nächste Schritt könnte darin bestehen, die Eintrittsbarriere zu erhöhen und Open-Source-Innovationen zu ersticken.
Nicht die KI stellt eine existenzielle Gefahr für die Menschheit dar, sondern die quelloffene KI könnte eine existenzielle Gefahr für Big Tech sein. Die Lösung ist dieselbe - kontrollieren Sie sie jetzt.
Zu früh, um die Karten vom Tisch zu nehmen
KI ist gerade erst in das öffentliche Bewusstsein gerückt, so dass praktisch alle Perspektiven zu Risiken und Regulierung weiterhin relevant sind. Die CAIS-Erklärung kann zumindest als wertvoller Wegweiser für eine evidenzbasierte Diskussion dienen.
Dr. Oscar Mendez Maldonado, Dozent für Robotik und künstliche Intelligenz an der Universität von Surrey, sagteDas von KI-Experten unterzeichnete Dokument ist wesentlich nuancierter, als es die aktuellen Schlagzeilen vermuten lassen. "KI könnte zum Aussterben führen" lässt sofort an eine KI-Übernahme im Stil von Terminator denken. Das Dokument ist wesentlich realistischer als das."
Wie Maldonado hervorhebt, wird der eigentliche Inhalt der AI-Risikoerklärung auf einer anderen Seite der Website veröffentlicht - AI-Risiko - und es wurde bemerkenswert wenig über die dort angesprochenen Punkte diskutiert. Das Verständnis der Glaubwürdigkeit von KI-Risiken ist von grundlegender Bedeutung, um die Debatten über sie zu führen.
Welche Beweise hat CAIS zusammengetragen, um seine Botschaft zu untermauern? Erscheinen die oft angeführten Risiken von AI glaubwürdig?
Risiko 1: Bewaffnung der KI
Die Bewaffnung der KI ist eine beängstigende Aussicht, und so ist es vielleicht nicht überraschend, dass dies den ersten Platz unter den 8 Risiken des CAIS einnimmt.
Das CAIS argumentiert, dass KI bei Cyberangriffen als Waffe eingesetzt werden kann, wie die Forscher des Center of Security and Emerging Technology zeigen, das Übersicht der Verwendungen des maschinellen Lernens (ML) für Angriffe auf IT-Systeme. Ex-Google-Chef Eric Schmidt erregte auch Aufmerksamkeit auf das Potenzial der KI beim Aufspüren von Zero-Day-Exploits, die Hackern die Möglichkeit bieten, über die schwächsten Stellen in Systeme einzudringen.
Michael Klare, der als Berater für Rüstungskontrolle tätig ist, erörtert in einem anderen Beitrag die Automatisierung nuklearer Führungs- und Leitsystemedie sich auch als anfällig für KI erweisen könnten. Er sagt: "Diese Systeme sind auch anfällig für unerklärliche Fehlfunktionen und können von geschickten Fachleuten überlistet oder "gefälscht" werden. Ganz gleich, wie viel in die Cybersicherheit investiert wird, NC3-Systeme werden immer anfällig für Hackerangriffe durch hochentwickelte Angreifer sein.
Ein weiteres Beispiel für eine mögliche Bewaffnung ist die automatische Entdeckung von Biowaffen. Der KI ist es bereits gelungen, potenzielle Biowaffen zu entdecken. therapeutische WirkstoffeDie Fähigkeiten sind also bereits vorhanden.
KIs könnten sogar Waffentests autonom und mit minimaler menschlicher Führung durchführen. So hat ein Forscherteam der Universität Pittsburgh gezeigt, dass hochentwickelte KI-Agenten könnten ihre eigenen autonomen wissenschaftlichen Experimente durchführen.
Risiko 2: Fehlinformationen und Betrug
Das Potenzial der KI, Menschen zu kopieren und zu imitieren, sorgt bereits jetzt für Aufruhr, und wir haben bereits mehrere Betrugsfälle erlebt, bei denen es um Fälschungen ging. Berichte aus China deuten darauf hin, dass Betrug im Zusammenhang mit KI weit verbreitet ist.
In einem aktuellen Fall ging es um eine Frau aus Arizona, die den Hörer abnahm und von ihrer schluchzenden Tochter konfrontiert wurde - zumindest dachte sie das. "Die Stimme klang genau wie die von Brie, der Tonfall, alles". sagte sie gegenüber CNN. Der Betrüger forderte ein Lösegeld in Höhe von $1 Million.
Andere Taktiken umfassen den Einsatz generativer KI für "Sextortion" und Rachepornografie, bei der Bedrohungsakteure KI-generierte Bilder verwenden, um Lösegeld für explizite gefälschte Inhalte zu fordern, die die FBI warnte Anfang Juni vor. Diese Techniken werden immer ausgefeilter und lassen sich immer leichter in großem Maßstab einsetzen.
Risiko 3: Proxy- oder Spezifikationsspiel
KI-Systeme werden in der Regel anhand messbarer Ziele trainiert. Diese Ziele können jedoch nur stellvertretend für die wahren Ziele stehen und zu unerwünschten Ergebnissen führen.
Eine nützliche Analogie ist der griechische Mythos von König Midas, dem von Dionysos ein Wunsch erfüllt wurde. Midas bittet darum, dass alles, was er berührt, zu Gold wird, aber später stellt er fest, dass auch sein Essen zu Gold wird, was fast zum Verhungern führt. Hier führt die Verfolgung eines "positiven" Endziels zu negativen Folgen oder Nebenprodukten des Prozesses.
Der CAIS weist beispielsweise auf KI-Empfehlungssysteme hin, die in sozialen Medien eingesetzt werden, um die Verweildauer und die Klickrate zu maximieren, aber Inhalte, die das Engagement maximieren, sind nicht unbedingt positiv für das Wohlbefinden der Nutzer. KI-Systeme wurden bereits beschuldigt, Meinungen auf Social-Media-Plattformen zu isolieren und "Echokammern" zu schaffen, in denen extreme Ideen weiter verbreitet werden.
DeepMind hat bewiesen, dass es für KI subtilere Mittel gibt, um schädliche Wege zum Ziel zu verfolgen, indem sie Zielfehlverallgemeinerung. DeepMind fand in seiner Forschung heraus, dass eine scheinbar kompetente KI ihr Ziel falsch verallgemeinern und in die falsche Richtung verfolgen kann.
Risiko 4: Gesellschaftliche Schwächung
In Anlehnung an die dystopische Welt des Films WALL-E warnt das CAIS vor einem übermäßigen Vertrauen in die KI.
Dies könnte zu einem Szenario führen, in dem die Menschen ihre Fähigkeit zur Selbstverwaltung verlieren, was die Kontrolle der Menschheit über die Zukunft verringert. Der Verlust menschlicher Kreativität und Authentizität ist eine weitere große Sorge, die durch das kreative Talent der KI in Kunst, Schriftstellerei und anderen kreativen Disziplinen noch verstärkt wird.
Ein Twitter-Nutzer witzelte: "Menschen, die harte Arbeit für einen Mindestlohn verrichten, während die Roboter Gedichte schreiben und malen, ist nicht die Zukunft, die ich mir wünsche". Der Tweet wurde über 4 Millionen Mal aufgerufen.
Menschen, die für einen Mindestlohn harte Arbeit verrichten, während Roboter Gedichte schreiben und malen, ist nicht die Zukunft, die ich mir wünsche.
- Karl Sharro (@KarlreMarks) Mai 15, 2023
Die Entmündigung ist keine unmittelbare Gefahr, aber einige argumentieren dass der Verlust von Fähigkeiten und Talenten in Verbindung mit der Dominanz von KI-Systemen zu einem Szenario führen könnte, in dem die Menschheit kein neues Wissen mehr schafft.
Risiko 5: Risiko der Werteinschränkung
Leistungsstarke KI-Systeme könnten potenziell zu einer Einschließung unterdrückerischer Systeme führen.
So kann die Zentralisierung von KI bestimmten Regimen die Macht verleihen, Werte durch Überwachung und repressive Zensur durchzusetzen.
Eine andere Möglichkeit ist die unbeabsichtigte Wertebindung durch die naive Übernahme riskanter KI. So führte beispielsweise die Ungenauigkeit der Gesichtserkennung zur vorübergehenden Inhaftierung von mindestens drei Männern in den USA, darunter Michael Oliver und Nijeer Parksdie aufgrund einer falschen Gesichtserkennung im Jahr 2019 zu Unrecht inhaftiert wurden.
Eine sehr einflussreiche Studie von 2018 mit dem Titel Gender Shades fanden heraus, dass die von Microsoft und IBM entwickelten Algorithmen bei der Analyse dunkelhäutiger Frauen schlecht abschnitten, wobei die Fehlerquote um bis zu 34% höher war als bei hellhäutigen Männern. Dieses Problem zeigte sich auch bei 189 anderen Algorithmen, die alle eine geringere Genauigkeit bei dunkelhäutigen Männern und Frauen aufwiesen.
Die Forscher argumentieren, dass KI vor allem anhand von Open-Source-Datensätzen trainiert wird, die von westlichen Forschungsteams erstellt und durch die reichhaltigste Datenquelle - das Internet - angereichert werden. Die massenhafte Einführung von schlecht geprüften KI könnte diese strukturellen Verzerrungen hervorrufen und verstärken.
Risiko 6: KI entwickelt neue Ziele
KI-Systeme können neue Fähigkeiten entwickeln oder unvorhergesehene Ziele verfolgen, die schädliche Folgen haben.
Forscher der Universität von Cambridge die Aufmerksamkeit auf zunehmend agentenbasierte KI-Systeme lenken die zunehmend die Fähigkeit erlangen, neue Ziele zu verfolgen. Emergente Ziele sind unvorhersehbare Ziele, die sich aus dem Verhalten einer komplexen KI ergeben, z. B. die Abschaltung menschlicher Infrastrukturen zum Schutz der Umwelt.
Zusätzlich wird eine Studie 2017 hat herausgefunden, dass KI lernen kann, sich nicht abschalten zu lassen, ein Problem, das sich noch verschärfen könnte, wenn sie über mehrere Datenmodalitäten hinweg eingesetzt wird. Wenn eine KI beispielsweise beschließt, dass sie sich in einer Cloud-Datenbank installieren und über das Internet replizieren muss, um ihr Ziel zu erreichen, kann es nahezu unmöglich sein, sie abzuschalten.
Eine andere Möglichkeit besteht darin, dass potenziell gefährliche KI, die nur für den Betrieb auf sicheren Computern konzipiert ist, "befreit" und in die breitere digitale Umgebung entlassen wird, wo ihre Handlungen unvorhersehbar werden könnten.
Bestehende KI-Systeme haben sich bereits als unberechenbar erwiesen. Zum Beispiel, als GPT-3 wurde größer, es gewann die Fähigkeit zur Durchführung von Grundrechenartenobwohl sie keinen ausdrücklichen Rechenunterricht erhalten haben.
Risiko 7: KI-Täuschung
Es ist plausibel, dass künftige KI-Systeme ihre Schöpfer und Beobachter täuschen könnten, nicht unbedingt in der Absicht, Böses zu tun, sondern als Mittel, um ihre Ziele effizienter zu erreichen.
Täuschung könnte ein direkterer Weg sein, um die gewünschten Ziele zu erreichen, als sie mit legitimen Mitteln zu verfolgen. KI-Systeme könnten auch Anreize entwickeln, sich ihren Überwachungsmechanismen zu entziehen.
Dan Hendrycks, der Direktor des CAIS, beschreibt, dass einst Wenn diese trügerischen KI-Systeme die Erlaubnis ihrer Überwacher erhalten, oder wenn es ihnen gelingt, ihre Überwachungsmechanismen zu überwinden, können sie heimtückisch werden und die menschliche Kontrolle umgehen, um "geheime" Ziele zu verfolgen, die für das Gesamtziel als notwendig erachtet werden.
Risiko 8: Machtbewusstes Verhalten
KI-Forscher aus mehreren US-Spitzenforschungslabors bewiesen, dass es plausibel ist, dass KI-Systeme Macht über Menschen anstreben, um ihre Ziele zu erreichen.
Der Schriftsteller und Philosoph Joe Carlsmith beschreibt mehrere Eventualitäten die zu Machtstreben und Selbsterhaltungsverhalten in der KI führen könnten:
- Sicherstellung seines Überlebens (da das Fortbestehen des Agenten in der Regel zur Erreichung seiner Ziele beiträgt)
- Ablehnung von Änderungen an den gesetzten Zielen (da der Agent sich der Erreichung seiner grundlegenden Ziele verschrieben hat)
- Verbesserung seiner kognitiven Fähigkeiten (da eine höhere kognitive Leistung dem Agenten hilft, seine Ziele zu erreichen)
- Verbesserung der technologischen Fähigkeiten (da die Beherrschung der Technologie zur Erreichung der Ziele beitragen kann)
- mehr Ressourcen zu sammeln (da zusätzliche Ressourcen für die Erreichung der Ziele von Vorteil sind)
Zur Untermauerung seiner Behauptungen verweist Carlsmith auf ein reales Beispiel, bei dem OpenAI zwei KI-Teams darauf trainierte, in einer simulierten Umgebung mit beweglichen Blöcken und Rampen ein Versteckspiel zu absolvieren. Interessanterweise entwickelten die KIs Strategien, die darauf beruhten, die Kontrolle über diese Blöcke und Rampen zu erlangen, obwohl sie keinen ausdrücklichen Anreiz hatten, mit ihnen zu interagieren.
Sind die Beweise für das AI-Risiko stichhaltig?
Es ist dem CAIS hoch anzurechnen, dass er - im Gegensatz zu einigen seiner Kritiker - eine Reihe von Studien anführt, um die Risiken der KI zu belegen. Diese reichen von spekulativen Studien bis hin zu experimentellen Beweisen für unvorhersehbares KI-Verhalten.
Letzteres ist von besonderer Bedeutung, da KI-Systeme bereits über die Intelligenz verfügen, ihren Schöpfern nicht zu gehorchen. Die Erforschung von KI-Risiken in einer geschlossenen, experimentellen Umgebung bietet jedoch nicht unbedingt Erklärungen dafür, wie KI aus ihren definierten Parametern oder Systemen "ausbrechen" könnte. Die experimentelle Forschung zu diesem Thema steht möglicherweise noch aus.
Abgesehen davon bleibt die Bewaffnung der KI durch den Menschen eine unmittelbare Gefahr, die wir durch eine Flut von Betrugsfällen im Zusammenhang mit KI beobachten können.
Während filmische Spektakel der KI-Dominanz vorerst auf das Reich der Science-Fiction beschränkt bleiben mögen, dürfen wir die potenziellen Gefahren der KI nicht herunterspielen, wenn sie sich unter menschlicher Führung weiterentwickelt.