{"id":1659,"date":"2023-06-13T21:32:01","date_gmt":"2023-06-13T21:32:01","guid":{"rendered":"https:\/\/dailyai.com\/?p=1659"},"modified":"2024-03-28T00:48:07","modified_gmt":"2024-03-28T00:48:07","slug":"navigating-the-labyrinth-of-ai-risks-an-analysis","status":"publish","type":"post","link":"https:\/\/dailyai.com\/de\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/","title":{"rendered":"Navigieren durch das Labyrinth der KI-Risiken: eine Analyse"},"content":{"rendered":"<p><strong>Das Narrativ \u00fcber die Risiken der KI ist zunehmend unipolar geworden, wobei Technologief\u00fchrer und Experten aus allen Ecken auf eine Regulierung dr\u00e4ngen. Wie glaubw\u00fcrdig sind die Beweise, die die Risiken der KI belegen?\u00a0<\/strong><\/p>\n<p><span style=\"font-weight: 400\">Die Risiken der KI appellieren an die Sinne. <\/span><span style=\"font-weight: 400\">Es hat etwas zutiefst Intuitives, sich vor Robotern zu f\u00fcrchten, die uns t\u00e4uschen, uns \u00fcberw\u00e4ltigen oder uns zu einer Ware machen k\u00f6nnten, die ihrer eigenen Existenz untergeordnet ist.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Die Debatten \u00fcber die Risiken der KI haben sich nach der t<\/span><span style=\"font-weight: 400\">Der gemeinn\u00fctzige <\/span><span style=\"font-weight: 400\">Zentrum f\u00fcr KI-Sicherheit (CAIS)<\/span><span style=\"font-weight: 400\"> ver\u00f6ffentlichte eine <a href=\"https:\/\/www.safe.ai\/statement-on-ai-risk\">Anweisung<\/a>\u00a0unterzeichnet von \u00fcber 350 namhaften Pers\u00f6nlichkeiten, darunter die CEOs von OpenAI, Anthropic und DeepMind, zahlreiche Akademiker, Pers\u00f6nlichkeiten des \u00f6ffentlichen Lebens und sogar ehemalige Politiker.\u00a0<\/span><\/p>\n<p>Der Titel der Erkl\u00e4rung war f\u00fcr die Schlagzeilen bestimmt: <strong>\"Die Minderung des Risikos des Aussterbens durch KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg eine globale Priorit\u00e4t sein.<\/strong><\/p>\n<p><span style=\"font-weight: 400\">Es ist immer schwieriger geworden, aus dieser lauten Debatte ein sinnvolles Signal herauszuholen. Die Kritiker von KI haben alle Munition, die sie brauchen, um dagegen zu argumentieren, w\u00e4hrend die Bef\u00fcrworter oder Zauderer alles haben, was sie brauchen, um die Anti-AI-Narrative als \u00fcbertrieben zu bezeichnen.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Und es gibt auch noch eine Nebenhandlung. Big Tech k\u00f6nnte auf eine Regulierung dr\u00e4ngen, um <a href=\"https:\/\/dailyai.com\/de\/2023\/06\/ai-companies-want-regulation-but-is-it-for-the-right-reasons\/\">die KI-Industrie einzugrenzen<\/a> aus der Open-Source-Gemeinschaft. <\/span>Microsoft investierte in OpenAI, Google in Anthropic - der n\u00e4chste Schritt k\u00f6nnte darin bestehen, die Eintrittsbarriere zu erh\u00f6hen und Open-Source-Innovationen zu ersticken.<\/p>\n<p>Nicht die KI stellt eine existenzielle Gefahr f\u00fcr die Menschheit dar, sondern die quelloffene KI k\u00f6nnte eine existenzielle Gefahr f\u00fcr Big Tech sein. Die L\u00f6sung ist dieselbe - kontrollieren Sie sie jetzt.<\/p>\n<h2>Zu fr\u00fch, um die Karten vom Tisch zu nehmen<\/h2>\n<p>KI ist gerade erst in das \u00f6ffentliche Bewusstsein ger\u00fcckt, so dass praktisch alle Perspektiven zu Risiken und Regulierung weiterhin relevant sind. Die CAIS-Erkl\u00e4rung kann zumindest als wertvoller Wegweiser f\u00fcr eine evidenzbasierte Diskussion dienen.<\/p>\n<p><span style=\"font-weight: 400\">Dr. Oscar Mendez Maldonado, Dozent f\u00fcr Robotik und k\u00fcnstliche Intelligenz an der Universit\u00e4t von Surrey, <a href=\"https:\/\/www.sciencemediacentre.org\/expert-reaction-to-a-statement-on-the-existential-threat-of-ai-published-on-the-centre-for-ai-safety-website\">sagte<\/a>Das von KI-Experten unterzeichnete Dokument ist wesentlich nuancierter, als es die aktuellen Schlagzeilen vermuten lassen. \"KI k\u00f6nnte zum Aussterben f\u00fchren\" l\u00e4sst sofort an eine KI-\u00dcbernahme im Stil von Terminator denken. Das Dokument ist wesentlich realistischer als das.\"<\/span><\/p>\n<p><span style=\"font-weight: 400\">Wie Maldonado hervorhebt, wird der eigentliche Inhalt der AI-Risikoerkl\u00e4rung auf einer anderen Seite der Website ver\u00f6ffentlicht - <a href=\"https:\/\/www.safe.ai\/ai-risk\">AI-Risiko<\/a> - und es wurde bemerkenswert wenig \u00fcber die dort angesprochenen Punkte diskutiert. Das Verst\u00e4ndnis der Glaubw\u00fcrdigkeit von KI-Risiken ist von grundlegender Bedeutung, um die Debatten \u00fcber sie zu f\u00fchren.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Welche Beweise hat CAIS zusammengetragen, um seine Botschaft zu untermauern? Erscheinen die oft angef\u00fchrten Risiken von AI glaubw\u00fcrdig?\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Risiko 1: Bewaffnung der KI<\/span><\/h2>\n<p><span style=\"font-weight: 400\">Die Bewaffnung der KI ist eine be\u00e4ngstigende Aussicht, und so ist es vielleicht nicht \u00fcberraschend, dass dies den ersten Platz unter den 8 Risiken des CAIS einnimmt.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Das CAIS argumentiert, dass KI bei Cyberangriffen als Waffe eingesetzt werden kann, wie die Forscher des Center of Security and Emerging Technology zeigen, das <\/span><a href=\"https:\/\/cset.georgetown.edu\/publication\/automating-cyber-attacks\/\"><span style=\"font-weight: 400\">\u00dcbersicht der Verwendungen<\/span><\/a><span style=\"font-weight: 400\"> des maschinellen Lernens (ML) f\u00fcr Angriffe auf IT-Systeme. <\/span><span style=\"font-weight: 400\">Ex-Google-Chef Eric Schmidt <a href=\"https:\/\/dailyai.com\/de\/2023\/05\/ex-google-ceo-eric-schmidt-ai-poses-an-existential-risk\/\">erregte auch Aufmerksamkeit<\/a> auf das Potenzial der KI beim Aufsp\u00fcren von Zero-Day-Exploits, die Hackern die M\u00f6glichkeit bieten, \u00fcber die schw\u00e4chsten Stellen in Systeme einzudringen.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Michael Klare, der als Berater f\u00fcr R\u00fcstungskontrolle t\u00e4tig ist, er\u00f6rtert in einem anderen Beitrag die <\/span><a href=\"https:\/\/www.armscontrol.org\/act\/2020-04\/features\/skynet-revisited-dangerous-allure-nuclear-command-automation\"><span style=\"font-weight: 400\">Automatisierung nuklearer F\u00fchrungs- und Leitsysteme<\/span><\/a><span style=\"font-weight: 400\">die sich auch als anf\u00e4llig f\u00fcr KI erweisen k\u00f6nnten. Er sagt: \"Diese Systeme sind auch anf\u00e4llig f\u00fcr unerkl\u00e4rliche Fehlfunktionen und k\u00f6nnen von geschickten Fachleuten \u00fcberlistet oder \"gef\u00e4lscht\" werden. Ganz gleich, wie viel in die Cybersicherheit investiert wird, NC3-Systeme werden immer anf\u00e4llig f\u00fcr Hackerangriffe durch hochentwickelte Angreifer sein.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Ein weiteres Beispiel f\u00fcr eine m\u00f6gliche Bewaffnung ist die automatische Entdeckung von Biowaffen. Der KI ist es bereits gelungen, potenzielle Biowaffen zu entdecken. <a href=\"https:\/\/dailyai.com\/de\/2023\/06\/researchers-build-breakthrough-ai-model-for-drug-discovery\/\">therapeutische Wirkstoffe<\/a>Die F\u00e4higkeiten sind also bereits vorhanden.<\/span><span style=\"font-weight: 400\">\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">KIs k\u00f6nnten sogar Waffentests autonom und mit minimaler menschlicher F\u00fchrung durchf\u00fchren. So hat ein Forscherteam der Universit\u00e4t Pittsburgh gezeigt, dass hochentwickelte <\/span><a href=\"https:\/\/arxiv.org\/abs\/2304.05332\"><span style=\"font-weight: 400\">KI-Agenten k\u00f6nnten ihre eigenen autonomen wissenschaftlichen Experimente durchf\u00fchren<\/span><\/a><span style=\"font-weight: 400\">.<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Risiko 2: Fehlinformationen und Betrug<\/span><\/h2>\n<p><span style=\"font-weight: 400\">Das Potenzial der KI, Menschen zu kopieren und zu imitieren, sorgt bereits jetzt f\u00fcr Aufruhr, und wir haben bereits mehrere Betrugsf\u00e4lle erlebt, bei denen es um F\u00e4lschungen ging. <a href=\"https:\/\/dailyai.com\/de\/2023\/06\/ai-related-fraud-on-the-rise-in-china\/\">Berichte aus China<\/a> deuten darauf hin, dass Betrug im Zusammenhang mit KI weit verbreitet ist.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">In einem aktuellen Fall ging es um eine Frau aus Arizona, die den H\u00f6rer abnahm und von ihrer schluchzenden Tochter konfrontiert wurde - zumindest dachte sie das. \"Die Stimme klang genau wie die von Brie, der Tonfall, alles\". <\/span><a href=\"https:\/\/edition.cnn.com\/2023\/04\/29\/us\/ai-scam-calls-kidnapping-cec\/index.html\"><span style=\"font-weight: 400\">sagte sie gegen\u00fcber CNN<\/span><\/a><span style=\"font-weight: 400\">. Der Betr\u00fcger forderte ein L\u00f6segeld in H\u00f6he von $1 Million.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Andere Taktiken umfassen den Einsatz generativer KI f\u00fcr \"Sextortion\" und Rachepornografie, bei der Bedrohungsakteure KI-generierte Bilder verwenden, um L\u00f6segeld f\u00fcr explizite gef\u00e4lschte Inhalte zu fordern, die die <\/span><a href=\"https:\/\/www.ic3.gov\/Media\/Y2023\/PSA230605\"><span style=\"font-weight: 400\">FBI warnte Anfang Juni vor<\/span><\/a><span style=\"font-weight: 400\">. Diese Techniken werden immer ausgefeilter und lassen sich immer leichter in gro\u00dfem Ma\u00dfstab einsetzen.<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Risiko 3: Proxy- oder Spezifikationsspiel<\/span><\/h2>\n<p><span style=\"font-weight: 400\">KI-Systeme werden in der Regel anhand messbarer Ziele trainiert. Diese Ziele k\u00f6nnen jedoch nur stellvertretend f\u00fcr die wahren Ziele stehen und zu unerw\u00fcnschten Ergebnissen f\u00fchren.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Eine n\u00fctzliche Analogie ist der griechische Mythos von K\u00f6nig Midas, dem von Dionysos ein Wunsch erf\u00fcllt wurde.\u00a0<\/span><span style=\"font-weight: 400\">Midas bittet darum, dass alles, was er ber\u00fchrt, zu Gold wird, aber sp\u00e4ter stellt er fest, dass auch sein Essen zu Gold wird, was fast zum Verhungern f\u00fchrt.\u00a0<\/span><span style=\"font-weight: 400\">Hier f\u00fchrt die Verfolgung eines \"positiven\" Endziels zu negativen Folgen oder Nebenprodukten des Prozesses. <\/span><\/p>\n<p><span style=\"font-weight: 400\">Der CAIS weist beispielsweise auf KI-Empfehlungssysteme hin, die in sozialen Medien eingesetzt werden, um die Verweildauer und die Klickrate zu maximieren, aber Inhalte, die das Engagement maximieren, sind nicht unbedingt <\/span><a href=\"https:\/\/journals.plos.org\/plosone\/article?id=10.1371\/journal.pone.0069841\"><span style=\"font-weight: 400\">positiv f\u00fcr das Wohlbefinden der Nutzer<\/span><\/a><span style=\"font-weight: 400\">. KI-Systeme wurden bereits beschuldigt, Meinungen auf Social-Media-Plattformen zu isolieren und \"Echokammern\" zu schaffen, in denen extreme Ideen weiter verbreitet werden.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">DeepMind hat bewiesen, dass es f\u00fcr KI subtilere Mittel gibt, um sch\u00e4dliche Wege zum Ziel zu verfolgen, indem sie <\/span><a href=\"https:\/\/www.deepmind.com\/blog\/how-undesired-goals-can-arise-with-correct-rewards\"><span style=\"font-weight: 400\">Zielfehlverallgemeinerung<\/span><\/a><span style=\"font-weight: 400\">. DeepMind fand in seiner Forschung heraus, dass eine scheinbar kompetente KI ihr Ziel falsch verallgemeinern und in die falsche Richtung verfolgen kann.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Risiko 4: Gesellschaftliche Schw\u00e4chung<\/span><\/h2>\n<p><span style=\"font-weight: 400\">In Anlehnung an die dystopische Welt des Films WALL-E warnt das CAIS vor einem \u00fcberm\u00e4\u00dfigen Vertrauen in die KI.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Dies k\u00f6nnte zu einem Szenario f\u00fchren, in dem die Menschen ihre F\u00e4higkeit zur Selbstverwaltung verlieren, was die Kontrolle der Menschheit \u00fcber die Zukunft verringert. Der Verlust menschlicher Kreativit\u00e4t und Authentizit\u00e4t ist eine weitere gro\u00dfe Sorge, die durch das kreative Talent der KI in Kunst, Schriftstellerei und anderen kreativen Disziplinen noch verst\u00e4rkt wird.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Ein Twitter-Nutzer witzelte: \"Menschen, die harte Arbeit f\u00fcr einen Mindestlohn verrichten, w\u00e4hrend die Roboter Gedichte schreiben und malen, ist nicht die Zukunft, die ich mir w\u00fcnsche\". Der Tweet wurde \u00fcber 4 Millionen Mal aufgerufen.\u00a0<\/span><\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Menschen, die f\u00fcr einen Mindestlohn harte Arbeit verrichten, w\u00e4hrend Roboter Gedichte schreiben und malen, ist nicht die Zukunft, die ich mir w\u00fcnsche.<\/p>\n<p>- Karl Sharro (@KarlreMarks) <a href=\"https:\/\/twitter.com\/KarlreMarks\/status\/1658028017921261569?ref_src=twsrc%5Etfw\">Mai 15, 2023<\/a><\/p><\/blockquote>\n<p>Die Entm\u00fcndigung ist keine unmittelbare Gefahr, aber <a href=\"https:\/\/openreview.net\/pdf?id=7oDZ-6kIW1K\">einige argumentieren<\/a> dass der Verlust von F\u00e4higkeiten und Talenten in Verbindung mit der Dominanz von KI-Systemen zu einem Szenario f\u00fchren k\u00f6nnte, in dem die Menschheit kein neues Wissen mehr schafft.<\/p>\n<h2><span style=\"font-weight: 400\">Risiko 5: Risiko der Werteinschr\u00e4nkung<\/span><\/h2>\n<p><span style=\"font-weight: 400\">Leistungsstarke KI-Systeme k\u00f6nnten potenziell zu einer Einschlie\u00dfung unterdr\u00fcckerischer Systeme f\u00fchren.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">So kann die Zentralisierung von KI bestimmten Regimen die Macht verleihen, Werte durch \u00dcberwachung und repressive Zensur durchzusetzen.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Eine andere M\u00f6glichkeit ist die unbeabsichtigte Wertebindung durch die naive \u00dcbernahme riskanter KI. So f\u00fchrte beispielsweise die Ungenauigkeit der Gesichtserkennung zur vor\u00fcbergehenden Inhaftierung von mindestens drei M\u00e4nnern in den USA, darunter <\/span><a href=\"https:\/\/www.nytimes.com\/2020\/12\/29\/technology\/facial-recognition-misidentify-jail.html\"><span style=\"font-weight: 400\">Michael Oliver und Nijeer Parks<\/span><\/a><span style=\"font-weight: 400\">die aufgrund einer falschen Gesichtserkennung im Jahr 2019 zu Unrecht inhaftiert wurden.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Eine sehr einflussreiche <\/span><a href=\"https:\/\/proceedings.mlr.press\/v81\/buolamwini18a\/buolamwini18a.pdf\"><span style=\"font-weight: 400\">Studie von 2018 mit dem Titel Gender Shades<\/span><\/a><span style=\"font-weight: 400\"> fanden heraus, dass die von Microsoft und IBM entwickelten Algorithmen bei der Analyse dunkelh\u00e4utiger Frauen schlecht abschnitten, wobei die Fehlerquote um bis zu 34% h\u00f6her war als bei hellh\u00e4utigen M\u00e4nnern. Dieses Problem zeigte sich auch bei 189 anderen Algorithmen, die alle eine geringere Genauigkeit bei dunkelh\u00e4utigen M\u00e4nnern und Frauen aufwiesen.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Die Forscher argumentieren, dass KI vor allem anhand von Open-Source-Datens\u00e4tzen trainiert wird, die von westlichen Forschungsteams erstellt und durch die reichhaltigste Datenquelle - das Internet - angereichert werden. Die massenhafte Einf\u00fchrung von schlecht gepr\u00fcften KI k\u00f6nnte diese strukturellen Verzerrungen hervorrufen und verst\u00e4rken.<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Risiko 6: KI entwickelt neue Ziele\u00a0<\/span><\/h2>\n<p><span style=\"font-weight: 400\">KI-Systeme k\u00f6nnen neue F\u00e4higkeiten entwickeln oder unvorhergesehene Ziele verfolgen, die sch\u00e4dliche Folgen haben.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Forscher der Universit\u00e4t von Cambridge <\/span><a href=\"https:\/\/arxiv.org\/abs\/2302.10329\"><span style=\"font-weight: 400\">die Aufmerksamkeit auf zunehmend agentenbasierte KI-Systeme lenken<\/span><\/a><span style=\"font-weight: 400\"> die zunehmend die F\u00e4higkeit erlangen, neue Ziele zu verfolgen. Emergente Ziele sind unvorhersehbare Ziele, die sich aus dem Verhalten einer komplexen KI ergeben, z. B. die Abschaltung menschlicher Infrastrukturen zum Schutz der Umwelt.<\/span><\/p>\n<p><span style=\"font-weight: 400\">Zus\u00e4tzlich wird eine <\/span><a href=\"https:\/\/arxiv.org\/pdf\/1611.08219.pdf\"><span style=\"font-weight: 400\">Studie 2017<\/span><\/a><span style=\"font-weight: 400\"> hat herausgefunden, dass KI lernen kann, sich nicht abschalten zu lassen, ein Problem, das sich noch versch\u00e4rfen k\u00f6nnte, wenn sie \u00fcber mehrere Datenmodalit\u00e4ten hinweg eingesetzt wird. Wenn eine KI beispielsweise beschlie\u00dft, dass sie sich in einer Cloud-Datenbank installieren und \u00fcber das Internet replizieren muss, um ihr Ziel zu erreichen, kann es nahezu unm\u00f6glich sein, sie abzuschalten.\u00a0\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Eine andere M\u00f6glichkeit besteht darin, dass potenziell gef\u00e4hrliche KI, die nur f\u00fcr den Betrieb auf sicheren Computern konzipiert ist, \"befreit\" und in die breitere digitale Umgebung entlassen wird, wo ihre Handlungen unvorhersehbar werden k\u00f6nnten.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Bestehende KI-Systeme haben sich bereits als unberechenbar erwiesen. Zum Beispiel, als <\/span><span style=\"font-weight: 400\">GPT-3 wurde gr\u00f6\u00dfer, es gewann die <\/span><a href=\"https:\/\/arxiv.org\/pdf\/2005.14165.pdf\"><span style=\"font-weight: 400\">F\u00e4higkeit zur Durchf\u00fchrung von Grundrechenarten<\/span><\/a><span style=\"font-weight: 400\">obwohl sie keinen ausdr\u00fccklichen Rechenunterricht erhalten haben.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Risiko 7: KI-T\u00e4uschung<\/span><\/h2>\n<p><span style=\"font-weight: 400\">Es ist plausibel, dass k\u00fcnftige KI-Systeme ihre Sch\u00f6pfer und Beobachter t\u00e4uschen k\u00f6nnten, nicht unbedingt in der Absicht, B\u00f6ses zu tun, sondern als Mittel, um ihre Ziele effizienter zu erreichen.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">T\u00e4uschung k\u00f6nnte ein direkterer Weg sein, um die gew\u00fcnschten Ziele zu erreichen, als sie mit legitimen Mitteln zu verfolgen. KI-Systeme k\u00f6nnten auch Anreize entwickeln, sich ihren \u00dcberwachungsmechanismen zu entziehen.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Dan Hendrycks, der Direktor des CAIS, <\/span><a href=\"https:\/\/arxiv.org\/abs\/2109.13916\"><span style=\"font-weight: 400\">beschreibt, dass einst<\/span><\/a><span style=\"font-weight: 400\"> Wenn diese tr\u00fcgerischen KI-Systeme die Erlaubnis ihrer \u00dcberwacher erhalten, oder wenn es ihnen gelingt, ihre \u00dcberwachungsmechanismen zu \u00fcberwinden, k\u00f6nnen sie heimt\u00fcckisch werden und die menschliche Kontrolle umgehen, um \"geheime\" Ziele zu verfolgen, die f\u00fcr das Gesamtziel als notwendig erachtet werden.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Risiko 8: Machtbewusstes Verhalten<\/span><\/h2>\n<p><a href=\"https:\/\/arxiv.org\/abs\/1912.01683\"><span style=\"font-weight: 400\">KI-Forscher aus mehreren US-Spitzenforschungslabors<\/span><\/a><span style=\"font-weight: 400\"> bewiesen, dass es plausibel ist, dass KI-Systeme Macht \u00fcber Menschen anstreben, um ihre Ziele zu erreichen.\u00a0\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Der Schriftsteller und Philosoph Joe Carlsmith <\/span><a href=\"https:\/\/jc.gatspress.com\/pdf\/existential_risk_and_powerseeking_ai.pdf\"><span style=\"font-weight: 400\">beschreibt mehrere Eventualit\u00e4ten<\/span><\/a><span style=\"font-weight: 400\"> die zu Machtstreben und Selbsterhaltungsverhalten in der KI f\u00fchren k\u00f6nnten:<\/span><\/p>\n<ul>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Sicherstellung seines \u00dcberlebens (da das Fortbestehen des Agenten in der Regel zur Erreichung seiner Ziele beitr\u00e4gt)<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Ablehnung von \u00c4nderungen an den gesetzten Zielen (da der Agent sich der Erreichung seiner grundlegenden Ziele verschrieben hat)<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Verbesserung seiner kognitiven F\u00e4higkeiten (da eine h\u00f6here kognitive Leistung dem Agenten hilft, seine Ziele zu erreichen)<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">Verbesserung der technologischen F\u00e4higkeiten (da die Beherrschung der Technologie zur Erreichung der Ziele beitragen kann)<\/span><\/li>\n<li style=\"font-weight: 400\"><span style=\"font-weight: 400\">mehr Ressourcen zu sammeln (da zus\u00e4tzliche Ressourcen f\u00fcr die Erreichung der Ziele von Vorteil sind)<\/span><\/li>\n<\/ul>\n<p><span style=\"font-weight: 400\">Zur Untermauerung seiner Behauptungen verweist Carlsmith auf ein reales Beispiel, bei dem OpenAI zwei KI-Teams darauf trainierte, in einer simulierten Umgebung mit beweglichen Bl\u00f6cken und Rampen ein Versteckspiel zu absolvieren. <\/span><span style=\"font-weight: 400\">Interessanterweise entwickelten die KIs Strategien, die darauf beruhten, die Kontrolle \u00fcber diese Bl\u00f6cke und Rampen zu erlangen, obwohl sie keinen ausdr\u00fccklichen Anreiz hatten, mit ihnen zu interagieren.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400\">Sind die Beweise f\u00fcr das AI-Risiko stichhaltig?<\/span><\/h2>\n<p><span style=\"font-weight: 400\">Es ist dem CAIS hoch anzurechnen, dass er - im Gegensatz zu einigen seiner Kritiker - eine Reihe von Studien anf\u00fchrt, um die Risiken der KI zu belegen. Diese reichen von spekulativen Studien bis hin zu experimentellen Beweisen f\u00fcr unvorhersehbares KI-Verhalten.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Letzteres ist von besonderer Bedeutung, da KI-Systeme bereits \u00fcber die Intelligenz verf\u00fcgen, ihren Sch\u00f6pfern nicht zu gehorchen. Die Erforschung von KI-Risiken in einer geschlossenen, experimentellen Umgebung bietet jedoch nicht unbedingt Erkl\u00e4rungen daf\u00fcr, wie KI aus ihren definierten Parametern oder Systemen \"ausbrechen\" k\u00f6nnte. Die experimentelle Forschung zu diesem Thema steht m\u00f6glicherweise noch aus.\u00a0\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400\">Abgesehen davon bleibt die Bewaffnung der KI durch den Menschen eine unmittelbare Gefahr, die wir durch eine Flut von Betrugsf\u00e4llen im Zusammenhang mit KI beobachten k\u00f6nnen. <\/span><\/p>\n<p>W\u00e4hrend filmische Spektakel der KI-Dominanz vorerst auf das Reich der Science-Fiction beschr\u00e4nkt bleiben m\u00f6gen, d\u00fcrfen wir die potenziellen Gefahren der KI nicht herunterspielen, wenn sie sich unter menschlicher F\u00fchrung weiterentwickelt.<\/p>","protected":false},"excerpt":{"rendered":"<p>Das Narrativ \u00fcber die Risiken der KI ist zunehmend unipolar geworden, wobei Technologief\u00fchrer und Experten aus allen Ecken auf eine Regulierung dr\u00e4ngen. Wie glaubw\u00fcrdig sind die Beweise, die die Risiken der KI belegen?  Die Risiken der KI appellieren an die Sinne. Es hat etwas zutiefst Intuitives, sich vor Robotern zu f\u00fcrchten, die uns t\u00e4uschen, uns \u00fcberw\u00e4ltigen oder uns zu einer Ware machen k\u00f6nnten, die ihrer eigenen Existenz untergeordnet ist. Die Debatten \u00fcber die Risiken der KI haben sich versch\u00e4rft, nachdem das gemeinn\u00fctzige Center for AI Safety (CAIS) eine Erkl\u00e4rung ver\u00f6ffentlicht hat, die von \u00fcber 350 namhaften Pers\u00f6nlichkeiten unterzeichnet wurde, darunter die CEOs von OpenAI, Anthropic und DeepMind, zahlreiche Wissenschaftler, Pers\u00f6nlichkeiten des \u00f6ffentlichen Lebens und sogar ehemalige Politiker.  Der Inhalt der Erkl\u00e4rung<\/p>","protected":false},"author":2,"featured_media":1660,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[87],"tags":[103,129,145,91,92],"class_list":["post-1659","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-opinions","tag-ai-debate","tag-ai-regulation","tag-ai-risk","tag-policy","tag-regulation"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.3 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>Navigating the labyrinth of AI risks: an analysis | DailyAI<\/title>\n<meta name=\"description\" content=\"The mainstream narrative surrounding AI risk has become increasingly unipolar, with AI leaders and experts from all corners seemingly pushing for regulation. But is there any solid evidence documenting AI&#039;s risks?\u00a0\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/dailyai.com\/de\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/\" \/>\n<meta property=\"og:locale\" content=\"de_DE\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"Navigating the labyrinth of AI risks: an analysis | DailyAI\" \/>\n<meta property=\"og:description\" content=\"The mainstream narrative surrounding AI risk has become increasingly unipolar, with AI leaders and experts from all corners seemingly pushing for regulation. But is there any solid evidence documenting AI&#039;s risks?\u00a0\" \/>\n<meta property=\"og:url\" content=\"https:\/\/dailyai.com\/de\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/\" \/>\n<meta property=\"og:site_name\" content=\"DailyAI\" \/>\n<meta property=\"article:published_time\" content=\"2023-06-13T21:32:01+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-03-28T00:48:07+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/shutterstock_2304355445.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"1000\" \/>\n\t<meta property=\"og:image:height\" content=\"450\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Sam Jeans\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:site\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:label1\" content=\"Verfasst von\" \/>\n\t<meta name=\"twitter:data1\" content=\"Sam Jeans\" \/>\n\t<meta name=\"twitter:label2\" content=\"Gesch\u00e4tzte Lesezeit\" \/>\n\t<meta name=\"twitter:data2\" content=\"9\u00a0Minuten\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"NewsArticle\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/#article\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/\"},\"author\":{\"name\":\"Sam Jeans\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\"},\"headline\":\"Navigating the labyrinth of AI risks: an analysis\",\"datePublished\":\"2023-06-13T21:32:01+00:00\",\"dateModified\":\"2024-03-28T00:48:07+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/\"},\"wordCount\":1873,\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/shutterstock_2304355445.jpg\",\"keywords\":[\"AI debate\",\"AI regulation\",\"AI risk\",\"Policy\",\"Regulation\"],\"articleSection\":{\"1\":\"Opinions &amp; Analysis\"},\"inLanguage\":\"de\"},{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/\",\"name\":\"Navigating the labyrinth of AI risks: an analysis | DailyAI\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/shutterstock_2304355445.jpg\",\"datePublished\":\"2023-06-13T21:32:01+00:00\",\"dateModified\":\"2024-03-28T00:48:07+00:00\",\"description\":\"The mainstream narrative surrounding AI risk has become increasingly unipolar, with AI leaders and experts from all corners seemingly pushing for regulation. But is there any solid evidence documenting AI's risks?\u00a0\",\"breadcrumb\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/#breadcrumb\"},\"inLanguage\":\"de\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/#primaryimage\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/shutterstock_2304355445.jpg\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/shutterstock_2304355445.jpg\",\"width\":1000,\"height\":450,\"caption\":\"AI risk\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/06\\\/navigating-the-labyrinth-of-ai-risks-an-analysis\\\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\\\/\\\/dailyai.com\\\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"Navigating the labyrinth of AI risks: an analysis\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"name\":\"DailyAI\",\"description\":\"Your Daily Dose of AI News\",\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/dailyai.com\\\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"de\"},{\"@type\":\"Organization\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\",\"name\":\"DailyAI\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"width\":4501,\"height\":934,\"caption\":\"DailyAI\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\"},\"sameAs\":[\"https:\\\/\\\/x.com\\\/DailyAIOfficial\",\"https:\\\/\\\/www.linkedin.com\\\/company\\\/dailyaiofficial\\\/\",\"https:\\\/\\\/www.youtube.com\\\/@DailyAIOfficial\"]},{\"@type\":\"Person\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\",\"name\":\"Sam Jeans\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"url\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"contentUrl\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"caption\":\"Sam Jeans\"},\"description\":\"Sam is a science and technology writer who has worked in various AI startups. When he\u2019s not writing, he can be found reading medical journals or digging through boxes of vinyl records.\",\"sameAs\":[\"https:\\\/\\\/www.linkedin.com\\\/in\\\/sam-jeans-6746b9142\\\/\"],\"url\":\"https:\\\/\\\/dailyai.com\\\/de\\\/author\\\/samjeans\\\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Navigieren durch das Labyrinth der KI-Risiken: eine Analyse | DailyAI","description":"Das Mainstream-Narrativ \u00fcber KI-Risiken ist zunehmend unipolar geworden, wobei KI-F\u00fchrungskr\u00e4fte und -Experten aus allen Ecken auf eine Regulierung zu dr\u00e4ngen scheinen. Aber gibt es solide Belege f\u00fcr die Risiken der KI?\u00a0","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/dailyai.com\/de\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/","og_locale":"de_DE","og_type":"article","og_title":"Navigating the labyrinth of AI risks: an analysis | DailyAI","og_description":"The mainstream narrative surrounding AI risk has become increasingly unipolar, with AI leaders and experts from all corners seemingly pushing for regulation. But is there any solid evidence documenting AI's risks?\u00a0","og_url":"https:\/\/dailyai.com\/de\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/","og_site_name":"DailyAI","article_published_time":"2023-06-13T21:32:01+00:00","article_modified_time":"2024-03-28T00:48:07+00:00","og_image":[{"width":1000,"height":450,"url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/shutterstock_2304355445.jpg","type":"image\/jpeg"}],"author":"Sam Jeans","twitter_card":"summary_large_image","twitter_creator":"@DailyAIOfficial","twitter_site":"@DailyAIOfficial","twitter_misc":{"Verfasst von":"Sam Jeans","Gesch\u00e4tzte Lesezeit":"9\u00a0Minuten"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"NewsArticle","@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/#article","isPartOf":{"@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/"},"author":{"name":"Sam Jeans","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9"},"headline":"Navigating the labyrinth of AI risks: an analysis","datePublished":"2023-06-13T21:32:01+00:00","dateModified":"2024-03-28T00:48:07+00:00","mainEntityOfPage":{"@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/"},"wordCount":1873,"publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"image":{"@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/shutterstock_2304355445.jpg","keywords":["AI debate","AI regulation","AI risk","Policy","Regulation"],"articleSection":{"1":"Opinions &amp; Analysis"},"inLanguage":"de"},{"@type":"WebPage","@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/","url":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/","name":"Navigieren durch das Labyrinth der KI-Risiken: eine Analyse | DailyAI","isPartOf":{"@id":"https:\/\/dailyai.com\/#website"},"primaryImageOfPage":{"@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/#primaryimage"},"image":{"@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/shutterstock_2304355445.jpg","datePublished":"2023-06-13T21:32:01+00:00","dateModified":"2024-03-28T00:48:07+00:00","description":"Das Mainstream-Narrativ \u00fcber KI-Risiken ist zunehmend unipolar geworden, wobei KI-F\u00fchrungskr\u00e4fte und -Experten aus allen Ecken auf eine Regulierung zu dr\u00e4ngen scheinen. Aber gibt es solide Belege f\u00fcr die Risiken der KI?\u00a0","breadcrumb":{"@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/#breadcrumb"},"inLanguage":"de","potentialAction":[{"@type":"ReadAction","target":["https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/"]}]},{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/#primaryimage","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/shutterstock_2304355445.jpg","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/shutterstock_2304355445.jpg","width":1000,"height":450,"caption":"AI risk"},{"@type":"BreadcrumbList","@id":"https:\/\/dailyai.com\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/dailyai.com\/"},{"@type":"ListItem","position":2,"name":"Navigating the labyrinth of AI risks: an analysis"}]},{"@type":"WebSite","@id":"https:\/\/dailyai.com\/#website","url":"https:\/\/dailyai.com\/","name":"DailyAI","description":"Ihre t\u00e4gliche Dosis an AI-Nachrichten","publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/dailyai.com\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"de"},{"@type":"Organization","@id":"https:\/\/dailyai.com\/#organization","name":"DailyAI","url":"https:\/\/dailyai.com\/","logo":{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","width":4501,"height":934,"caption":"DailyAI"},"image":{"@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/x.com\/DailyAIOfficial","https:\/\/www.linkedin.com\/company\/dailyaiofficial\/","https:\/\/www.youtube.com\/@DailyAIOfficial"]},{"@type":"Person","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9","name":"Sam Jeans","image":{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","caption":"Sam Jeans"},"description":"Sam ist ein Wissenschafts- und Technologiewissenschaftler, der in verschiedenen KI-Startups gearbeitet hat. Wenn er nicht gerade schreibt, liest er medizinische Fachzeitschriften oder kramt in Kisten mit Schallplatten.","sameAs":["https:\/\/www.linkedin.com\/in\/sam-jeans-6746b9142\/"],"url":"https:\/\/dailyai.com\/de\/author\/samjeans\/"}]}},"_links":{"self":[{"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/posts\/1659","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/comments?post=1659"}],"version-history":[{"count":59,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/posts\/1659\/revisions"}],"predecessor-version":[{"id":1790,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/posts\/1659\/revisions\/1790"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/media\/1660"}],"wp:attachment":[{"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/media?parent=1659"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/categories?post=1659"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/tags?post=1659"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}