{"id":7045,"date":"2023-11-02T21:38:56","date_gmt":"2023-11-02T21:38:56","guid":{"rendered":"https:\/\/dailyai.com\/?p=7045"},"modified":"2024-03-28T00:41:32","modified_gmt":"2024-03-28T00:41:32","slug":"the-battle-of-the-ai-godfathers-is-ai-risky-or-not","status":"publish","type":"post","link":"https:\/\/dailyai.com\/de\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/","title":{"rendered":"Der Kampf der \"KI-Paten\" - ist KI riskant oder nicht?"},"content":{"rendered":"<p><b>KI ist riskant, richtig? Das wurde uns allen im letzten Jahr gesagt. Aber nicht alle sind dieser Meinung, auch nicht einige Spitzenforscher.\u00a0<\/b><\/p>\n<p><span style=\"font-weight: 400;\">X wurde heftig dar\u00fcber gestritten, ob KI wirklich existenzielle Risiken birgt. Wir sprechen hier nicht von Fehlinformationen oder tiefgreifenden F\u00e4lschungen - obwohl diese bereits schlimm sind - sondern von Risiken, die mit Atomkatastrophen und Pandemien vergleichbar sind.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Diese Debatte wurde von dem KI-Risikoskeptiker und KI-Chef von Meta, Yann LeCun, angef\u00fchrt, der neben Yoshua Bengio und Geoffrey Hinton als einer der so genannten \"KI-Paten\" gilt.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">In LeCuns Schusslinie stehen der CEO von OpenAI, Sam Altman, der CEO von DeepMind, Demis Hassabis, und der CEO von Anthropic, Dario Amode, denen LeCun \"massive Lobbyarbeit\" vorwirft.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">LeCun bef\u00fcrchtet insbesondere, dass die gro\u00dfen Tech-Bosse das Gerede \u00fcber KI-Risiken und -Missbrauch anheizen, um die Regulierungsbeh\u00f6rden dazu zu bringen, die Branche zu ihren Gunsten abzusichern. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Big Tech hat die Z\u00e4hne, um mit der Regulierung umzugehen, w\u00e4hrend kleinere Firmen und Open-Source-Entwickler dies nicht k\u00f6nnen. LeCun bezweifelt auch die oft ge\u00e4u\u00dferte Vision einer \"Singularit\u00e4t\" der KI, bei der die Technologie pl\u00f6tzlich intelligenter wird als der Mensch und damit eine neue \u00c4ra der superintelligenten KI einl\u00e4utet.\u00a0<\/span><\/p>\n<p>Andere, darunter auch Altman, gehen davon aus, dass die Entwicklung der k\u00fcnstlichen Intelligenz differenzierter und schrittweise erfolgen wird und nicht von heute auf morgen abl\u00e4uft.<\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Der *einzige* Grund, warum die Leute wegen der KI-Risiken hyperventilieren, ist der Mythos des \"harten Starts\": die Vorstellung, dass die Menschheit in dem Moment, in dem man ein superintelligentes System einschaltet, dem Untergang geweiht ist.<br \/>\nDas ist absurd dumm und beruht auf einem *kompletten* Missverst\u00e4ndnis der Funktionsweise.<\/p>\n<p>- Yann LeCun (@ylecun) <a href=\"https:\/\/twitter.com\/ylecun\/status\/1642524629137760259?ref_src=twsrc%5Etfw\">2. April 2023<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<p><span style=\"font-weight: 400;\">LeCuns Argumenten zufolge kann Big Tech die KI-Risiken zu seinem Vorteil nutzen, indem es die Marktstrukturen st\u00e4rkt und den Wettbewerb ausschaltet. Das eigentliche Risiko besteht laut LeCun darin, dass einige wenige KI-Entwickler die Branche beherrschen und ihren Kurs diktieren.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Er betonte den Ernst der Lage und erkl\u00e4rte: \"Wenn diese Bem\u00fchungen Erfolg haben, w\u00e4re das Ergebnis eine Katastrophe, weil eine kleine Anzahl von Unternehmen die KI kontrollieren wird\". Diese Aussage spiegelt den breiten Konsens in der Tech-Welt \u00fcber das transformative Potenzial der KI wider und setzt ihre Bedeutung mit der des Mikrochips oder des Internets gleich.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Mit seinen \u00c4u\u00dferungen reagierte LeCun auf den renommierten Physiker Max Tegmark, der angedeutet hatte, dass LeCun die existenziellen Risiken der KI nicht ernst genug nehme.<\/span><\/p>\n<p><span style=\"font-weight: 400;\"> In einem \u00f6ffentlichen Beitrag w\u00fcrdigte Tegmark die Bem\u00fchungen der f\u00fchrenden Politiker der Welt, die potenziellen Gefahren der KI zu erkennen, und erkl\u00e4rte: \"Man kann sie nicht allein mit Sarkasmus und Unternehmenslobbyismus widerlegen.\"<\/span><\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Yann, ich w\u00fcrde mich freuen, wenn du Argumente statt Akronyme vorbringen w\u00fcrdest. Dank an <a href=\"https:\/\/twitter.com\/RishiSunak?ref_src=twsrc%5Etfw\">@RishiSunak<\/a> &amp; <a href=\"https:\/\/twitter.com\/vonderleyen?ref_src=twsrc%5Etfw\">@vonderleyen<\/a> daf\u00fcr, dass sie erkannt haben, dass die Argumente von Turing, Hinton, Bengio, Russell, Altman, Hassabis &amp; Amodei zum Thema KI-Risiken nicht allein mit Sarkasmus und Unternehmenslobbyismus widerlegt werden k\u00f6nnen. <a href=\"https:\/\/t.co\/Zv1rvOA3Zz\">https:\/\/t.co\/Zv1rvOA3Zz<\/a><\/p>\n<p>- Max Tegmark (@tegmark) <a href=\"https:\/\/twitter.com\/tegmark\/status\/1718663322738868595?ref_src=twsrc%5Etfw\">29. Oktober 2023<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<p><span style=\"font-weight: 400;\">Inmitten des zunehmenden Einflusses von KI sind Pers\u00f6nlichkeiten wie Altman und Hassabis in den Mittelpunkt des \u00f6ffentlichen Diskurses \u00fcber Technologie ger\u00fcckt. LeCun kritisiert jedoch, dass sie die Angst vor KI sch\u00fcren und gleichzeitig davon profitieren. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Im M\u00e4rz trafen sich \u00fcber tausend f\u00fchrende Techniker, darunter Elon Musk, Altman und Hassabis, <a href=\"https:\/\/dailyai.com\/de\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/\">sprach sich f\u00fcr eine Pause aus<\/a> in der KI-Entwicklung mit dem Hinweis auf erhebliche gesellschaftliche und humanit\u00e4re Risiken.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">LeCun vertritt jedoch die Ansicht, dass diese dramatischen Warnungen nur ein Vorwand sind, um die Aufmerksamkeit von unmittelbaren Problemen wie <a href=\"https:\/\/dailyai.com\/de\/2023\/10\/digital-colonialism-in-the-age-of-ai-and-machine-learning\/\">Arbeiterausbeutung<\/a> und Datendiebstahl.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">LeCun fordert eine Neuausrichtung der Diskussion auf die Gegenwart und unmittelbare Zukunft der KI-Entwicklung. Er \u00e4u\u00dferte seine Besorgnis \u00fcber die m\u00f6gliche Ausl\u00f6schung der Open-Source-KI-Gemeinschaft, wenn die KI-Entwicklung auf private, gewinnorientierte Unternehmen beschr\u00e4nkt wird.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">F\u00fcr LeCun steht viel auf dem Spiel: \"Die Alternative, die unweigerlich eintreten wird, wenn Open-Source-KI nicht mehr existiert, ist, dass eine kleine Anzahl von Unternehmen von der Westk\u00fcste der USA und aus China die KI-Plattform und damit die gesamte digitale Ern\u00e4hrung der Menschen kontrollieren wird\", warnte er und mahnte, die Auswirkungen auf die Demokratie und die kulturelle Vielfalt zu bedenken.<\/span><\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Altman, Hassabis und Amodei sind diejenigen, die derzeit massive Lobbyarbeit f\u00fcr Unternehmen betreiben.<br \/>\nSie sind diejenigen, die versuchen, die KI-Branche regulatorisch zu vereinnahmen.<br \/>\nSie, Geoff und Yoshua geben denjenigen Munition, die sich f\u00fcr ein Verbot der offenen KI-Forschung und Entwicklung einsetzen.<\/p>\n<p>Wenn...<\/p>\n<p>- Yann LeCun (@ylecun) <a href=\"https:\/\/twitter.com\/ylecun\/status\/1718670073391378694?ref_src=twsrc%5Etfw\">29. Oktober 2023<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<h2><span style=\"font-weight: 400;\">LeCun's Unterst\u00fctzer<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">Die Argumente von LeCun finden in den sozialen Medien gro\u00dfen Anklang und sto\u00dfen bei Kommentatoren und Branchenexperten auf Zustimmung. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">So \u00e4u\u00dferte Andrew Ng, eine Schl\u00fcsselfigur in der KI-Entwicklung und Mitbegr\u00fcnder von Google Brain, die Bef\u00fcrchtung, dass gro\u00dfe Technologieunternehmen den Diskurs \u00fcber KI manipulieren k\u00f6nnten, um eine Marktdominanz zu erreichen.<\/span><\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Nun, zumindest *ein* gro\u00dfes Tech-Unternehmen stellt KI-Modelle offen zur Verf\u00fcgung und l\u00fcgt nicht \u00fcber das existenzielle Risiko von KI \ud83d\ude0a.<a href=\"https:\/\/t.co\/vyk4qkOzOq\">https:\/\/t.co\/vyk4qkOzOq<\/a><\/p>\n<p>- Yann LeCun (@ylecun) <a href=\"https:\/\/twitter.com\/ylecun\/status\/1719162768002093184?ref_src=twsrc%5Etfw\">31. Oktober 2023<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><br \/>\n<span style=\"font-weight: 400;\">In einem Interview mit der Australian Financial Review wies Ng auf einen Trend unter den Tech-Giganten hin, \u00c4ngste vor KI zu sch\u00fcren, insbesondere die Vorstellung, dass sie zum Aussterben der Menschheit f\u00fchren k\u00f6nnte. Wie LeCun und andere vermutet auch er, dass dieses Narrativ strategisch eingesetzt wird, um eine strengere KI-Regulierung zu erreichen und damit Open-Source-Initiativen und kleinere Wettbewerber zu behindern.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">\"Es gibt definitiv gro\u00dfe Technologieunternehmen, die lieber nicht versuchen w\u00fcrden, mit Open Source zu konkurrieren, also sch\u00fcren sie die Angst, dass KI zum Aussterben der Menschheit f\u00fchrt\", erkl\u00e4rte Ng. \"Das ist eine Waffe f\u00fcr Lobbyisten, um f\u00fcr Gesetze zu argumentieren, die der Open-Source-Gemeinschaft sehr schaden w\u00fcrden.\"<\/span><\/p>\n<p><a href=\"https:\/\/dailyai.com\/de\/2023\/06\/ai-companies-want-regulation-but-is-it-for-the-right-reasons\/\"><span style=\"font-weight: 400;\">Zu Beginn des Jahres<\/span><\/a><span style=\"font-weight: 400;\">In einem durchgesickerten Google-Memo wird scheinbar zugegeben, dass Big Tech gegen\u00fcber Open Source an Boden verliert.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">In dem Memo hei\u00dft es: \"Open-Source-Modelle sind schneller, besser anpassbar, privater und leistungsf\u00e4higer. Sie machen Dinge mit $100 und 13B-Parametern, mit denen wir bei $10M und 540B zu k\u00e4mpfen haben. Und sie schaffen das in Wochen, nicht in Monaten.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Open-Source-KI ist schnell, nicht monolithisch, privat und vor allem billig. Big Tech ist bereits <a href=\"https:\/\/dailyai.com\/de\/2023\/10\/can-the-tech-industry-overcome-the-challenge-of-ai-monetization\/\">K\u00e4mpfen um die Monetarisierung von KI<\/a>Auf dem Papier macht das Ganze also Sinn: Die KI-Industrie soll reguliert werden, damit sich die Titanen durchsetzen k\u00f6nnen.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400;\">Ablenkung von unmittelbaren Bedrohungen<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">Es gibt noch eine andere Dimension dieser Debatte, die \u00fcber das Geld hinausgeht. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Viele haben bekr\u00e4ftigt, dass die derzeitigen Risiken der KI, wie z. B. extrem ausgefeilte F\u00e4lschungen und Fehlinformationen, bereits ausreichen, um eine ausf\u00fchrliche Debatte und ein rasches Handeln zu rechtfertigen.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Aidan Gomez, ein prominenter KI-Forscher und CEO von Cohere, wies auch auf die Gefahr hin, sich zu sehr auf Untergangsszenarien zu konzentrieren.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Im Vorfeld der diese Woche stattfindenden <a href=\"https:\/\/dailyai.com\/de\/2023\/11\/round-up-of-day-two-of-the-uks-ai-safety-summit\/\">AI-Sicherheitsgipfel<\/a>Gomez wies darauf hin, dass unmittelbare Bedrohungen wie Fehlinformationen und die Erosion des gesellschaftlichen Vertrauens von Diskussionen \u00fcber langfristige existenzielle Risiken \u00fcberschattet werden.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">\"Ich denke, dass es im Hinblick auf existenzielle Risiken und die \u00f6ffentliche Politik keine produktive Diskussion ist\", erkl\u00e4rte Gomez und betonte, dass die unmittelbaren Risiken Vorrang haben m\u00fcssen. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">\"Was die \u00f6ffentliche Politik und die Frage angeht, worauf wir uns im \u00f6ffentlichen Sektor konzentrieren sollten - oder auf den Versuch, das Risiko f\u00fcr die Zivilbev\u00f6lkerung zu mindern -, so lenkt dies meiner Meinung nach von den Risiken ab, die viel greifbarer und unmittelbarer sind.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Gomez verweist auf den allgegenw\u00e4rtigen Einfluss der KI in Produkten, die von Milliarden von Menschen genutzt werden, und betont die dringende Notwendigkeit, Risiken anzugehen, die sich aktiv auf die \u00d6ffentlichkeit auswirken. \"Diese Technologie ist bereits in einer Milliarde von Produkten enthalten, wie bei Google und anderen. Das bringt eine Vielzahl neuer Risiken mit sich, die es zu diskutieren gilt. Keines davon ist existenziell, keines davon ist ein Weltuntergangsszenario\", erkl\u00e4rte er.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Er bezeichnet Fehlinformationen als ein Hauptproblem, da KI-Modelle in der Lage sind, Medien zu erstellen, die \"praktisch nicht von von Menschen erstellten Texten, Bildern oder Medien zu unterscheiden sind\".<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Fehlinformationen sind in der Tat der Staatsfeind Nummer eins in Bezug auf KI-Risiken, denn wir haben bereits Beispiele daf\u00fcr gesehen, dass tiefgreifende F\u00e4lschungen f\u00fcr erfolgreiche Betr\u00fcgereien eingesetzt wurden. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Tiefe F\u00e4lschungen vor der Nachspielzeit eingesetzt <\/span><a href=\"https:\/\/dailyai.com\/de\/2023\/10\/ai-generated-fake-audio-clips-continue-to-stir-controversy\/\"><span style=\"font-weight: 400;\">bei den slowakischen Wahlen<\/span><\/a><span style=\"font-weight: 400;\"> zeigte, wie sie die Demokratie sp\u00fcrbar beeinflussen k\u00f6nnen.\u00a0<\/span><\/p>\n<h2><span style=\"font-weight: 400;\">Yoshua Bengio, Geoffrey Hinton und Elon Musk nehmen an der Debatte teil<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">Der \"KI-Pate\" Yoshua Bengio hat zusammen mit \u00fcber 200 f\u00fchrenden Technikern und Forschern einen offenen Brief unterzeichnet, in dem er auf den dringenden Bedarf an sofortigen und umfassenden Ma\u00dfnahmen hinweist. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Bengio steht nun an der Spitze eines internationalen Berichts, der auf dem britischen KI-Sicherheitsgipfel vorgestellt wurde. Er ist von den Risiken der KI \u00fcberzeugt, ebenso wie Geoffrey Hinton, was bedeutet, dass 2\/3 der \"KI-Paten\" in gewisser Weise besorgt sind.\u00a0<\/span><\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Sie und Yoshua helfen ungewollt denjenigen, die die KI-Forschung und -Entwicklung unter Verschluss halten und ihr Gesch\u00e4ft sch\u00fctzen wollen, indem sie offene Forschung, Open-Source-Code und Open-Access-Modelle verbieten.<\/p>\n<p>Dies wird mittelfristig unweigerlich zu schlechten Ergebnissen f\u00fchren.<\/p>\n<p>- Yann LeCun (@ylecun) <a href=\"https:\/\/twitter.com\/ylecun\/status\/1719432513003901278?ref_src=twsrc%5Etfw\">31. Oktober 2023<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><br \/>\n<span style=\"font-weight: 400;\">Auf seiner Website, <a href=\"https:\/\/yoshuabengio.org\/2023\/04\/05\/slowing-down-development-of-ai-systems-passing-the-turing-test\/\">Bengio schrieb<\/a>Ich habe vor kurzem einen offenen Brief unterzeichnet, in dem ich fordere, die Entwicklung von riesigen KI-Systemen zu verlangsamen, die leistungsf\u00e4higer sind als GPT-4, d.h. die den Turing-Test bestehen und einem Menschen vorgaukeln k\u00f6nnen, dass er sich mit einem anderen Menschen und nicht mit einer Maschine unterh\u00e4lt.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Geoffrey Hinton aus dem Dreigestirn der KI-Paten hatte Google verlassen, um seine Bef\u00fcrchtungen in Bezug auf die KI \"auszusprechen\". Er ging sogar so weit zu sagen, dass er seine Arbeit bereue, weil KI missbraucht werden k\u00f6nnte. In einem Interview sagte er: \"Ich tr\u00f6ste mich mit der \u00fcblichen Ausrede: Wenn ich es nicht getan h\u00e4tte, h\u00e4tte es jemand anderes getan.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Wie Bengio vertritt auch Hinton die Ansicht, dass KI ein ernsthaftes Aussterberisiko birgt. Er bezweifelt auch, dass das Open-Sourcing von Modellen die Sicherheitsbem\u00fchungen unterst\u00fctzen k\u00f6nnte.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">K\u00fcrzlich betonte er, dass seine Entscheidung, Google zu verlassen, im Widerspruch zur kritischen Haltung von LeCun et al. stehe, und erkl\u00e4rte auf X: \"Andrew Ng behauptet, dass die Idee, dass KI uns ausl\u00f6schen k\u00f6nnte, eine Big-Tech-Verschw\u00f6rung sei. Ein Datenpunkt, der nicht zu dieser Verschw\u00f6rungstheorie passt, ist, dass ich Google verlassen habe, um frei \u00fcber die existenzielle Bedrohung sprechen zu k\u00f6nnen.\"<\/span><\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Andrew Ng behauptet, dass die Idee, dass KI uns aussterben lassen k\u00f6nnte, eine Big-Tech-Verschw\u00f6rung ist. Ein Datenpunkt, der nicht zu dieser Verschw\u00f6rungstheorie passt, ist, dass ich Google verlassen habe, um frei \u00fcber die existenzielle Bedrohung sprechen zu k\u00f6nnen.<\/p>\n<p>- Geoffrey Hinton (@geoffreyhinton) <a href=\"https:\/\/twitter.com\/geoffreyhinton\/status\/1719406116503707668?ref_src=twsrc%5Etfw\">31. Oktober 2023<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<p><span style=\"font-weight: 400;\">Hinton, Bengio und andere f\u00fchrende KI-Forscher, darunter der einflussreiche chinesische Informatiker Andrew Yao, haben k\u00fcrzlich <\/span><a href=\"https:\/\/arxiv.org\/abs\/2310.17688\"><span style=\"font-weight: 400;\">hat ein Papier unterst\u00fctzt<\/span><\/a><span style=\"font-weight: 400;\"> die Risiken der KI zu beschreiben. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Hinton: \"Die Unternehmen planen, innerhalb von 18 Monaten Modelle zu trainieren, die 100-mal rechenintensiver sind als der heutige Stand der Technik. Keiner wei\u00df, wie leistungsf\u00e4hig sie sein werden. Und es gibt im Grunde keine Vorschriften dar\u00fcber, was sie mit diesen Modellen tun k\u00f6nnen.\"<\/span><\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Lasst uns auch Atomwaffen freigeben, um sie sicherer zu machen. Die Guten (wir) werden immer gr\u00f6\u00dfere Waffen haben als die B\u00f6sen (sie), also sollte alles in Ordnung sein.<\/p>\n<p>- Geoffrey Hinton (@geoffreyhinton) <a href=\"https:\/\/twitter.com\/geoffreyhinton\/status\/1719443704098804136?ref_src=twsrc%5Etfw\">31. Oktober 2023<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Es ist in Ordnung, den Einsatz von Produkten zu regeln.<br \/>\nBei lebenswichtigen Anwendungen wie der Fahrassistenz ist das notwendig.<\/p>\n<p>Was wir ablehnen, ist die Regulierung der KI-Forschung und -Entwicklung.<br \/>\nInsbesondere mit willk\u00fcrlichen Beschr\u00e4nkungen der Berechnungsebenen.<\/p>\n<p>- Yann LeCun (@ylecun) <a href=\"https:\/\/twitter.com\/ylecun\/status\/1719821488482660575?ref_src=twsrc%5Etfw\">1. November 2023<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<p>Diese Debatte geht weiter und wird es auch weiterhin tun.<\/p>\n<p>Ein X-Benutzer kommentierte dies wie folgt:<\/p>\n<blockquote class=\"twitter-tweet\">\n<p dir=\"ltr\" lang=\"en\">Gr\u00fcnderv\u00e4ter der k\u00fcnstlichen Intelligenz, die nach 2 Bong-Hits in einem Wohnheim debattieren <a href=\"https:\/\/t.co\/8MUze6hxBS\">pic.twitter.com\/8MUze6hxBS<\/a><\/p>\n<p>- Hassan Hayat \ud83d\udd25 (@TheSeaMouse) <a href=\"https:\/\/twitter.com\/TheSeaMouse\/status\/1719464104186814611?ref_src=twsrc%5Etfw\">31. Oktober 2023<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><br \/>\n<span style=\"font-weight: 400;\">LeCun hat mit Elon Musk einen weiteren Gegenspieler, der nur selten bei einer hochrangigen X-Debatte fehlt, schon gar nicht bei einer, die fest in seinem Einflussbereich liegt (von seiner Plattform ganz zu schweigen). <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Musk hat in der Vergangenheit immer wieder seine Besorgnis \u00fcber k\u00fcnstliche Intelligenz ge\u00e4u\u00dfert, aber seine Haltung ist sehr unberechenbar geworden.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">In letzter Zeit hat Musk die KI immer wieder als potenzielle existenzielle Bedrohung f\u00fcr die Menschheit bezeichnet und erkl\u00e4rt, die Entwicklung komplexer KI sei wie die \"Beschw\u00f6rung eines D\u00e4mons\". Auf dem KI-Sicherheitsgipfel sagte er jedoch, er glaube, dass KI unter dem Strich positive Vorteile bringen werde.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">In den letzten Monaten hat Musk OpenAI kritisiert, indem er auf eine Abweichung von der urspr\u00fcnglichen Mission der Organisation hinwies und seine Besorgnis \u00fcber deren \"Closed-Source\"-Richtung zum Ausdruck brachte, die stark von Microsoft beeinflusst ist.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Sowohl Musk als auch LeCun stimmen in ihrer Kritik an quelloffener KI weitgehend \u00fcberein, was zeigt, dass die Bef\u00fcrwortung von KI-Risiken nicht immer gleichbedeutend mit der Verurteilung von Open Source ist. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Was das Thema Open-Source betrifft, so werden wir sehen, was Musk mit seinen Produkten machen wird. <a href=\"https:\/\/dailyai.com\/de\/2023\/07\/elon-musk-unveils-mysterious-new-ai-venture-xai\/\">KI-Startup xAI ver\u00f6ffentlicht<\/a>.<\/span><\/p>\n<h2><span style=\"font-weight: 400;\">Google DeepMind-Chef wehrt sich gegen LeCuns \"Angstmacherei\"-Behauptung<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">Der Leiter von Google DeepMind, Demis Hassabis, reagierte auf die von LeCun erhobenen Vorw\u00fcrfe und beschuldigte das Unternehmen, umfangreiche Lobbyarbeit zu betreiben, um die KI-Branche zu dominieren.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">In einem Interview mit <a href=\"https:\/\/www.cnbc.com\/world\/?region=world\">CNBC<\/a>Hassabis betonte, dass das Engagement von DeepMind in den KI-Diskussionen kein Versuch ist, eine \"regulatorische Vereinnahmung\" zu erreichen.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Als Antwort auf diese Behauptungen erkl\u00e4rte Hassabis: \"Ich stimme mit den meisten dieser Kommentare von Yann nicht \u00fcberein.\"\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Er skizzierte drei Hauptkategorien von Risiken im Zusammenhang mit KI und betonte, wie wichtig es ist, unmittelbare Probleme wie Fehlinformationen, tiefgreifende F\u00e4lschungen und Verzerrungen anzugehen, aber auch den potenziellen Missbrauch von KI durch b\u00f6swillige Akteure und langfristige Risiken im Zusammenhang mit k\u00fcnstlicher allgemeiner Intelligenz (AGI) zu ber\u00fccksichtigen.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Er sprach sich daf\u00fcr aus, Gespr\u00e4che \u00fcber die Regulierung superintelligenter KI lieber fr\u00fcher als sp\u00e4ter zu beginnen, um schlimme Folgen zu vermeiden.<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Hassabis betonte den globalen Charakter der KI-Technologie und unterstrich die Notwendigkeit einer internationalen Zusammenarbeit, auch mit China, um verantwortungsvolle Entwicklungs- und Regulierungsstandards zu schaffen.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Sowohl er als auch James Manyika, Googles Senior Vice President f\u00fcr Forschung, Technologie und Gesellschaft, \u00e4u\u00dferten den Wunsch nach einem globalen Konsens \u00fcber KI. Hassabis nahm am britischen KI-Sicherheitsgipfel teil, wo er sich der Meinung f\u00fchrender Politiker anschloss, die sich f\u00fcr KI-Sicherheit und -Aufsicht aussprachen.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Trotz der anhaltenden Spannungen zwischen den USA und China und des Z\u00f6gerns amerikanischer Tech-Giganten, sich in China kommerziell zu engagieren, betonte Hassabis die Notwendigkeit der Kommunikation: \"Ich denke, wir m\u00fcssen in dieser Phase mit allen reden.\"<\/span><\/p>\n<h2><span style=\"font-weight: 400;\">Gibt es einen Mittelweg?<\/span><\/h2>\n<p><span style=\"font-weight: 400;\">Die Debatten \u00fcber die potenziellen Risiken der KI und die notwendigen regulatorischen Ma\u00dfnahmen erreichen einen kritischen Punkt. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">In den letzten Wochen wurden immer mehr \"offizielle Gespr\u00e4che\" \u00fcber KI gef\u00fchrt, doch eine Regulierung ist noch nicht in Sicht. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Die US-Regulierung und das KI-Gesetz der EU werden die ersten festen Grundlagen f\u00fcr die KI-Governance schaffen.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">LeCun hat ein \u00fcberzeugendes Argument f\u00fcr die Monetarisierung von KI angesichts der Open-Source-Konkurrenz. Von Googles durchgesickertem Memo bis hin zu den koh\u00e4renten existenziellen Risiken, die von gro\u00dfen Tech-Bossen in den Mainstream-Medien vorgebracht werden, haben er und seine Unterst\u00fctzer reichlich Munition.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Der fehlende Konsens geht jedoch \u00fcber die K\u00f6pfe der gewinnorientierten KI-Entwickler bei Microsoft, DeepMind, Anthropic usw. hinaus. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Bengio und Hinton sind gr\u00f6\u00dftenteils parteilos, und der verstorbene Professor Stephen Hawking beispielsweise erkl\u00e4rte, dass dies \"das Ende der menschlichen Rasse bedeuten k\u00f6nnte\" und sich als \"schlimmstes Ereignis in der Geschichte unserer Zivilisation\" erweisen k\u00f6nnte.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Forscher haben die F\u00e4higkeit von KI-Systemen nachgewiesen <\/span><a href=\"https:\/\/dailyai.com\/de\/2023\/06\/navigating-the-labyrinth-of-ai-risks-an-analysis\/\"><span style=\"font-weight: 400;\">selbstst\u00e4ndig neue Ziele entwickeln<\/span><\/a><span style=\"font-weight: 400;\">die bei unsachgem\u00e4\u00dfer Handhabung katastrophale Folgen haben k\u00f6nnen.\u00a0<\/span><span style=\"font-weight: 400;\">Andere Experimente haben gezeigt, dass KI-Systeme aktiv nach Ressourcen suchen, Energie ansammeln und Ma\u00dfnahmen ergreifen k\u00f6nnen, um nicht abgeschaltet zu werden.\u00a0<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Es gibt stichhaltige Beweise f\u00fcr KI-bedingte Sch\u00e4den, aber stehen sie in einem angemessenen Verh\u00e4ltnis zu den Alarmglocken, die von den gro\u00dfen Tech-Bossen gel\u00e4utet werden? <\/span><\/p>\n<p><span style=\"font-weight: 400;\">Und, was vielleicht noch wichtiger ist, kann man ihnen wirklich zutrauen, dass sie die Branche f\u00fcr alle ethisch korrekt f\u00fchren, unabh\u00e4ngig davon, ob ein Risiko besteht oder nicht?<\/span><\/p>\n<p><span style=\"font-weight: 400;\">Vielleicht sollten wir das Vorgehen der gro\u00dfen Technologiekonzerne als das ultimative Gl\u00fccksspiel betrachten. <\/span><\/p>\n<p><span style=\"font-weight: 400;\">KI ist h\u00f6chstwahrscheinlich riskant, aber einige wenige Unternehmen wollen sich dieses Risiko zu eigen machen, es bis an seine Grenzen ausreizen und es so gestalten, wie sie es f\u00fcr richtig oder falsch halten.<\/span><\/p>\n<p><span style=\"font-weight: 400;\"> Big Tech k\u00f6nnte das Spiel so aufladen, dass das Haus immer gewinnt, solange es stehen bleibt.\u00a0<\/span><\/p>","protected":false},"excerpt":{"rendered":"<p>KI ist riskant, richtig? Das wurde uns allen im letzten Jahr gesagt. Aber nicht alle sind dieser Meinung, auch nicht einige Spitzenforscher.  Auf X wurde heftig dar\u00fcber gestritten, ob KI wirklich existenzielle Risiken birgt. Dabei geht es nicht um Fehlinformationen oder tiefgreifende F\u00e4lschungen - obwohl diese bereits schlimm sind - sondern um Risiken, die mit Atomkatastrophen und Pandemien vergleichbar sind. Diese Debatte wurde von dem KI-Risikoskeptiker und Meta-Chef Yann LeCun angef\u00fchrt, der neben Yoshua Bengio und Geoffrey Hinton als einer der so genannten \"KI-Paten\" gilt.  In LeCuns Schusslinie stehen auch OpenAI-Chef Sam Altman, DeepMind-Chef Demis Hassabis und<\/p>","protected":false},"author":2,"featured_media":7046,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[88],"tags":[103,339,131,463],"class_list":["post-7045","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ethics","tag-ai-debate","tag-ai-safety","tag-meta","tag-yann-lecun"],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.4 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>The battle of the &#039;AI godfathers&#039; \u2013 is AI risky or not?! | DailyAI<\/title>\n<meta name=\"description\" content=\"AI is risky, right? That\u2019s what we\u2019ve all been told this last year. But not everyone agrees, including some top researchers.\u00a0\" \/>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/dailyai.com\/de\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/\" \/>\n<meta property=\"og:locale\" content=\"de_DE\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"The battle of the &#039;AI godfathers&#039; \u2013 is AI risky or not?! | DailyAI\" \/>\n<meta property=\"og:description\" content=\"AI is risky, right? That\u2019s what we\u2019ve all been told this last year. But not everyone agrees, including some top researchers.\u00a0\" \/>\n<meta property=\"og:url\" content=\"https:\/\/dailyai.com\/de\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/\" \/>\n<meta property=\"og:site_name\" content=\"DailyAI\" \/>\n<meta property=\"article:published_time\" content=\"2023-11-02T21:38:56+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-03-28T00:41:32+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/11\/shutterstock_709397500.jpg\" \/>\n\t<meta property=\"og:image:width\" content=\"1000\" \/>\n\t<meta property=\"og:image:height\" content=\"667\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/jpeg\" \/>\n<meta name=\"author\" content=\"Sam Jeans\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:site\" content=\"@DailyAIOfficial\" \/>\n<meta name=\"twitter:label1\" content=\"Verfasst von\" \/>\n\t<meta name=\"twitter:data1\" content=\"Sam Jeans\" \/>\n\t<meta name=\"twitter:label2\" content=\"Gesch\u00e4tzte Lesezeit\" \/>\n\t<meta name=\"twitter:data2\" content=\"11\u00a0Minuten\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\\\/\\\/schema.org\",\"@graph\":[{\"@type\":\"NewsArticle\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/11\\\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\\\/#article\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/11\\\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\\\/\"},\"author\":{\"name\":\"Sam Jeans\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\"},\"headline\":\"The battle of the &#8216;AI godfathers&#8217; \u2013 is AI risky or not?!\",\"datePublished\":\"2023-11-02T21:38:56+00:00\",\"dateModified\":\"2024-03-28T00:41:32+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/11\\\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\\\/\"},\"wordCount\":2540,\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/11\\\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/11\\\/shutterstock_709397500.jpg\",\"keywords\":[\"AI debate\",\"AI safety\",\"Meta\",\"Yann LeCUn\"],\"articleSection\":[\"Ethics &amp; Society\"],\"inLanguage\":\"de\"},{\"@type\":\"WebPage\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/11\\\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/11\\\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\\\/\",\"name\":\"The battle of the 'AI godfathers' \u2013 is AI risky or not?! | DailyAI\",\"isPartOf\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/11\\\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\\\/#primaryimage\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/11\\\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\\\/#primaryimage\"},\"thumbnailUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/11\\\/shutterstock_709397500.jpg\",\"datePublished\":\"2023-11-02T21:38:56+00:00\",\"dateModified\":\"2024-03-28T00:41:32+00:00\",\"description\":\"AI is risky, right? That\u2019s what we\u2019ve all been told this last year. But not everyone agrees, including some top researchers.\u00a0\",\"breadcrumb\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/11\\\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\\\/#breadcrumb\"},\"inLanguage\":\"de\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\\\/\\\/dailyai.com\\\/2023\\\/11\\\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\\\/\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/11\\\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\\\/#primaryimage\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/11\\\/shutterstock_709397500.jpg\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/11\\\/shutterstock_709397500.jpg\",\"width\":1000,\"height\":667,\"caption\":\"AI risks\"},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/2023\\\/11\\\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\\\/#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\\\/\\\/dailyai.com\\\/\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"The battle of the &#8216;AI godfathers&#8217; \u2013 is AI risky or not?!\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#website\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"name\":\"DailyAI\",\"description\":\"Your Daily Dose of AI News\",\"publisher\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\\\/\\\/dailyai.com\\\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"de\"},{\"@type\":\"Organization\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#organization\",\"name\":\"DailyAI\",\"url\":\"https:\\\/\\\/dailyai.com\\\/\",\"logo\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\",\"url\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"contentUrl\":\"https:\\\/\\\/dailyai.com\\\/wp-content\\\/uploads\\\/2023\\\/06\\\/Daily-Ai_TL_colour.png\",\"width\":4501,\"height\":934,\"caption\":\"DailyAI\"},\"image\":{\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/logo\\\/image\\\/\"},\"sameAs\":[\"https:\\\/\\\/x.com\\\/DailyAIOfficial\",\"https:\\\/\\\/www.linkedin.com\\\/company\\\/dailyaiofficial\\\/\",\"https:\\\/\\\/www.youtube.com\\\/@DailyAIOfficial\"]},{\"@type\":\"Person\",\"@id\":\"https:\\\/\\\/dailyai.com\\\/#\\\/schema\\\/person\\\/711e81f945549438e8bbc579efdeb3c9\",\"name\":\"Sam Jeans\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"de\",\"@id\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"url\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"contentUrl\":\"https:\\\/\\\/secure.gravatar.com\\\/avatar\\\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g\",\"caption\":\"Sam Jeans\"},\"description\":\"Sam is a science and technology writer who has worked in various AI startups. When he\u2019s not writing, he can be found reading medical journals or digging through boxes of vinyl records.\",\"sameAs\":[\"https:\\\/\\\/www.linkedin.com\\\/in\\\/sam-jeans-6746b9142\\\/\"],\"url\":\"https:\\\/\\\/dailyai.com\\\/de\\\/author\\\/samjeans\\\/\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"Der Kampf der \"KI-Paten\" - ist KI riskant oder nicht? | DailyAI","description":"KI ist riskant, richtig? Das wurde uns allen im letzten Jahr gesagt. Aber nicht alle sind dieser Meinung, auch nicht einige Spitzenforscher.\u00a0","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/dailyai.com\/de\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/","og_locale":"de_DE","og_type":"article","og_title":"The battle of the 'AI godfathers' \u2013 is AI risky or not?! | DailyAI","og_description":"AI is risky, right? That\u2019s what we\u2019ve all been told this last year. But not everyone agrees, including some top researchers.\u00a0","og_url":"https:\/\/dailyai.com\/de\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/","og_site_name":"DailyAI","article_published_time":"2023-11-02T21:38:56+00:00","article_modified_time":"2024-03-28T00:41:32+00:00","og_image":[{"width":1000,"height":667,"url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/11\/shutterstock_709397500.jpg","type":"image\/jpeg"}],"author":"Sam Jeans","twitter_card":"summary_large_image","twitter_creator":"@DailyAIOfficial","twitter_site":"@DailyAIOfficial","twitter_misc":{"Verfasst von":"Sam Jeans","Gesch\u00e4tzte Lesezeit":"11\u00a0Minuten"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"NewsArticle","@id":"https:\/\/dailyai.com\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/#article","isPartOf":{"@id":"https:\/\/dailyai.com\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/"},"author":{"name":"Sam Jeans","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9"},"headline":"The battle of the &#8216;AI godfathers&#8217; \u2013 is AI risky or not?!","datePublished":"2023-11-02T21:38:56+00:00","dateModified":"2024-03-28T00:41:32+00:00","mainEntityOfPage":{"@id":"https:\/\/dailyai.com\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/"},"wordCount":2540,"publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"image":{"@id":"https:\/\/dailyai.com\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/11\/shutterstock_709397500.jpg","keywords":["AI debate","AI safety","Meta","Yann LeCUn"],"articleSection":["Ethics &amp; Society"],"inLanguage":"de"},{"@type":"WebPage","@id":"https:\/\/dailyai.com\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/","url":"https:\/\/dailyai.com\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/","name":"Der Kampf der \"KI-Paten\" - ist KI riskant oder nicht? | DailyAI","isPartOf":{"@id":"https:\/\/dailyai.com\/#website"},"primaryImageOfPage":{"@id":"https:\/\/dailyai.com\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/#primaryimage"},"image":{"@id":"https:\/\/dailyai.com\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/#primaryimage"},"thumbnailUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/11\/shutterstock_709397500.jpg","datePublished":"2023-11-02T21:38:56+00:00","dateModified":"2024-03-28T00:41:32+00:00","description":"KI ist riskant, richtig? Das wurde uns allen im letzten Jahr gesagt. Aber nicht alle sind dieser Meinung, auch nicht einige Spitzenforscher.\u00a0","breadcrumb":{"@id":"https:\/\/dailyai.com\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/#breadcrumb"},"inLanguage":"de","potentialAction":[{"@type":"ReadAction","target":["https:\/\/dailyai.com\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/"]}]},{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/dailyai.com\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/#primaryimage","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/11\/shutterstock_709397500.jpg","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/11\/shutterstock_709397500.jpg","width":1000,"height":667,"caption":"AI risks"},{"@type":"BreadcrumbList","@id":"https:\/\/dailyai.com\/2023\/11\/the-battle-of-the-ai-godfathers-is-ai-risky-or-not\/#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/dailyai.com\/"},{"@type":"ListItem","position":2,"name":"The battle of the &#8216;AI godfathers&#8217; \u2013 is AI risky or not?!"}]},{"@type":"WebSite","@id":"https:\/\/dailyai.com\/#website","url":"https:\/\/dailyai.com\/","name":"DailyAI","description":"Ihre t\u00e4gliche Dosis an AI-Nachrichten","publisher":{"@id":"https:\/\/dailyai.com\/#organization"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/dailyai.com\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"de"},{"@type":"Organization","@id":"https:\/\/dailyai.com\/#organization","name":"DailyAI","url":"https:\/\/dailyai.com\/","logo":{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/","url":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","contentUrl":"https:\/\/dailyai.com\/wp-content\/uploads\/2023\/06\/Daily-Ai_TL_colour.png","width":4501,"height":934,"caption":"DailyAI"},"image":{"@id":"https:\/\/dailyai.com\/#\/schema\/logo\/image\/"},"sameAs":["https:\/\/x.com\/DailyAIOfficial","https:\/\/www.linkedin.com\/company\/dailyaiofficial\/","https:\/\/www.youtube.com\/@DailyAIOfficial"]},{"@type":"Person","@id":"https:\/\/dailyai.com\/#\/schema\/person\/711e81f945549438e8bbc579efdeb3c9","name":"Sam Jeans","image":{"@type":"ImageObject","inLanguage":"de","@id":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/a24a4a8f8e2a1a275b7491dc9c9f032c401eabf23c3206da4628dc84b6dac5c8?s=96&d=robohash&r=g","caption":"Sam Jeans"},"description":"Sam ist ein Wissenschafts- und Technologiewissenschaftler, der in verschiedenen KI-Startups gearbeitet hat. Wenn er nicht gerade schreibt, liest er medizinische Fachzeitschriften oder kramt in Kisten mit Schallplatten.","sameAs":["https:\/\/www.linkedin.com\/in\/sam-jeans-6746b9142\/"],"url":"https:\/\/dailyai.com\/de\/author\/samjeans\/"}]}},"_links":{"self":[{"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/posts\/7045","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/comments?post=7045"}],"version-history":[{"count":13,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/posts\/7045\/revisions"}],"predecessor-version":[{"id":7076,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/posts\/7045\/revisions\/7076"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/media\/7046"}],"wp:attachment":[{"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/media?parent=7045"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/categories?post=7045"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/dailyai.com\/de\/wp-json\/wp\/v2\/tags?post=7045"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}