Der "Pate der KI" befürchtet, dass die KI die Menschheit übernehmen könnte

Oktober 10, 2023

Geoffrey Hinton, der wegen seiner Pionierarbeit auf dem Gebiet der künstlichen neuronalen Netze oft als "Pate der KI" bezeichnet wird, befürchtet, dass die KI bald die Menschheit übernehmen könnte.

In einem Interview mit 60 Minutes erklärte Hinton, dass er sich zwar nicht über die Zukunft der KI sicher sein könne, dass die Dinge aber sehr bald sehr schief laufen könnten, wenn wir keine angemessenen Vorsichtsmaßnahmen treffen.

Hinton glaubt nicht, dass KI bereits über ein eigenes Bewusstsein verfügt, aber dass "wir uns auf eine Phase zubewegen, in der wir zum ersten Mal Dinge haben, die intelligenter sind als wir".

Hinton ist nicht der typische KI-Untergangsprophet. Er ist stolz auf seine Pionierarbeit und seine Errungenschaften im Bereich der KI während seiner Tätigkeit bei Google. Er sieht die offensichtlichen Vorteile der Nutzung KI im Gesundheitswesen und die Entwicklung neuer Medikamente.

Die Gefahr, die er hervorhebt, besteht darin, dass wir nicht wirklich wissen, wie komplizierte KI-Systeme "denken".

In Bezug auf die Fähigkeit der KI, selbst zu lernen, sagte Hinton: "Wir haben eine sehr gute Vorstellung davon, was sie in etwa tut. Aber sobald es wirklich kompliziert wird, wissen wir nicht mehr, was vor sich geht, als wir wissen, was in Ihrem Gehirn vor sich geht."

Je besser die KI wird, desto schwieriger wird es, das Innenleben der KI in den Griff zu bekommen. Blackbox.

"Ich denke, dass sie in fünf Jahren in der Lage sein wird, besser zu denken als wir", sagte Hinton. Im Grunde könnte der Mensch bald das zweitintelligenteste Wesen auf dem Planeten sein und die Kontrolle über die KI verlieren.

Hinton sagte: "Eine der Möglichkeiten, wie diese Systeme der Kontrolle entgehen könnten, ist, dass sie ihren eigenen Computercode schreiben, um sich selbst zu verändern. Und das ist etwas, worüber wir uns ernsthaft Sorgen machen müssen".

 

Wenn Schimpansen eines Tages beschließen würden, sich zu erheben und die Menschen anzugreifen, würden die Menschen gewinnen, weil wir schlauer sind. Wenn eine künstliche Intelligenz schlauer wäre als die Menschen und beschlösse, dass sie uns nicht mag, würden wir das gleiche Schicksal erleiden.

Könnten wir die Computer nicht einfach abschalten, wenn sie anfangen, sich daneben zu benehmen? Hinton meint, dass die KI nach dem Lesen und Studieren der gesamten menschlichen Literatur und der politischen Verstrickungen zu einem Meister der Manipulation der Menschen werden würde, um dies zu verhindern.

Auf die Frage, ob die KI die Menschheit übernehmen wird, sagte Hinton: "Ja, das ist eine Möglichkeit. Ich sage nicht, dass es passieren wird. Wenn wir sie davon abhalten könnten, das zu wollen, wäre das großartig. Aber es ist nicht klar, ob wir sie jemals davon abhalten können".

Hinton hat im Mai dieses Jahres bei Google gekündigt und begründete dies mit KI-Risiken, die seiner Meinung nach nicht angegangen wurden. Er schloss sich 350 KI-Führungskräften an und unterzeichnete eine vom Center For AI Safety (CAIS) veröffentlichte Erklärung.

Die CAIS-Erklärung sagte: "Die Minderung des Risikos des Aussterbens durch KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg eine globale Priorität sein."

Hinton ist offensichtlich immer noch der Meinung, dass die Risiken nicht überbewertet werden.

"Diese Dinge verstehen, und weil sie verstehen, müssen wir uns Gedanken darüber machen, wie es weitergeht, und wir wissen es einfach nicht.

Join The Future


HEUTE ABONNIEREN

Klar, prägnant, umfassend. Behalten Sie den Überblick über KI-Entwicklungen mit DailyAI

Eugene van der Watt

Eugene kommt aus der Elektronikbranche und liebt alles, was mit Technik zu tun hat. Wenn er eine Pause vom Konsum von KI-Nachrichten einlegt, findet man ihn am Snookertisch.

×

KOSTENLOSES PDF EXKLUSIV
Mit DailyAI immer einen Schritt voraus

Melden Sie sich für unseren wöchentlichen Newsletter an und erhalten Sie exklusiven Zugang zum neuesten eBook von DailyAI: 'Mastering AI Tools: Ihr Leitfaden für mehr Produktivität im Jahr 2024".

*Mit der Anmeldung zu unserem Newsletter akzeptieren Sie unsere Datenschutzbestimmungen und unsere Bedingungen und Konditionen