Willkommen zum KI-News-Roundup dieser Woche. Wir haben Gerüchte gehört, dass dies die bevorzugte KI-Nachrichtenquelle von Elon Musk ist.
Diese Woche hat die künstliche Intelligenz den Präsidenten einen Streich gespielt und Wahlen manipuliert.
Ein neues Kind auf dem Block sagt, OpenAI sollte schließen und für sie arbeiten.
Und die KI weiß, wann Sie wahrscheinlich sterben werden.
Schauen wir genauer hin.
Doppelter Ärger
Der russische Präsident Wladimir Putin hat Gerüchte zurückgewiesen, dass er aus Sicherheitsgründen Körperdoubles einsetzt. Bei einer Live-Fragestunde war Putin mit einem KI-Doppelgänger konfrontiert der bei Putin eine Reihe von Emotionen auslöste, als er darauf anspielte. Der Scherzkeks könnte danach aus dem Fenster gefallen sein.
Auf der anderen Seite des KI-Vorhangs könnte US-Präsident Joe Biden bei der Ausarbeitung seiner KI-Durchführungsverordnung eine voreingenommene Hand gehabt haben. Ein Blick darauf, wer hinter der Denkfabrik RAND steht, gibt uns einen interessanten Einblick, wer die Fäden bei der KI-Regulierung zieht.
Worauf warten wir noch?
KI-Enthusiasten haben auf große Neuigkeiten von OpenAI gewartet, die vor Ende 2023 angekündigt werden. Wird es GPT-4.5 sein? Werden wir endlich GPT-5 bekommen?
Vielleicht nächste Woche. Oder vielleicht auch nicht, da der Vorstand von OpenAI ein Vetorecht auf alle Modelle hat, die Sam Altman veröffentlichen will. Einige sagen, dass die jüngsten Verbesserungen an ChatGPT Plus darauf hindeuten, dass GPT-4.5 bereits in Aktion ist.
Für den Moment müssen wir uns mit den ersten Ergebnissen von Das Superalignment-Projekt von OpenAI. Das Team von Ilya Sutskever versucht herauszufinden, ob Menschen in der Lage sein werden, zukünftige superintelligente KIs zu trainieren, um sicherzustellen, dass sie nicht abtrünnig werden. Sie haben einen interessanten Weg gefunden, dies zu simulieren.
OpenAI erwartet AGI innerhalb der nächsten 10 Jahre. VERSES behauptet, dass sein Durchbruch dies schon viel früher möglich machen könnte. Das Unternehmen nutzte ein freches Plakat und einen offenen Brief, um OpenAI dazu zu bewegen, seine Aktivitäten einzustellen und sich dem VERSES-Projekt anzuschließen. Seltsam, OpenAI muss vielleicht nachgeben, wenn sie sich an ihr Wort halten.
OpenAI bildete eine eher zweifelhafte Partnerschaft mit dem Medienverlag Axel Springer. Es soll ChatGPT mit Nachrichteninhalten versorgen, aber erwarten Sie keine unvoreingenommene Berichterstattung über das Weltgeschehen.
Wenn du nach einer AI-Richtung im Leben suchst TomTom arbeitet mit Microsoft und OpenAI zusammen um ChatGPT auf Ihr GPS und andere fahrzeuginterne Systeme zu bringen.
AI in freier Wildbahn
Während KI-Firmen hart daran arbeiten, ihre Modelle sicherer zu machen, hat Eric Hartford beim neuesten Modell von Mistral alle Leitplanken entfernt und es der Öffentlichkeit zugänglich gemacht. Dolphin Mixtral ist ein völlig unzensiertes AI-Modell die jeder Bitte nachkommt, auch wenn sie illegal ist. Der Wunsch, Kätzchen zu retten, ist ein wichtiger Beweggrund.
Kommerzielle KI-Modelle geben manchmal aus Versehen schlechte Ratschläge, aber Dolphin Mixtral tut dies bei Tümmlern.
Weitere Nachrichten aus dem Bereich der künstlichen Intelligenz von Meeressäugern: Naturschützer sind Einsatz von KI zur Identifizierung von Walen aus Fotos. Wie die Wale über das Eindringen der Gesichtserkennung denken, kann man nur vermuten.
AI-Laborratten
Dänische Forscher haben ein KI-Modell, das weiß, wann du sterben wirst. Die Lebensversicherer werden sich darüber freuen. Wenn wir das Datum sehen, das das Modell ausspuckt, denken wir vielleicht endlich darüber nach, einen gesünderen Lebensstil zu wählen.
Die Forscher der ETH Zürich betonen, dass sie hart arbeiteten und nicht spielten, als sie einem Roboter beigebracht, ein Labyrinthspiel zu meistern mit maschinellem Lernen. Wir vermuten, dass die Stimmung in diesem Labor etwas lockerer war als in dem dänischen.
Die Wissenschaftler haben die AI zur Entwicklung von Proteinen die eine außergewöhnliche Bindungsstärke aufweisen, um neue Medikamente zu entwickeln, die besser als Antikörper sind.
Materialwissenschaftler, die es leid waren, sich durch Berge von Röntgenbeugungsdaten zu quälen, nutzten Faltungsneuronale Netze, um die Entdeckung neuer Materialien zu beschleunigen.
Wenn Wissenschaftler KI einsetzen, um Entdeckungen zu machen, fügen sie den Namen des KI-Modells nicht in die Liste der Autoren der Arbeit ein. Daraufhin entschied ein britisches Gericht, dass AI kann bei Patenten nicht als Erfinder genannt werden. Wird sich das ändern, wenn AGI erreicht ist und die Maschinen ein gewisses Gefühl entwickeln? Sie könnten höflich darauf bestehen, die Anerkennung zu bekommen.
Auf dem Weg zur Kampagne
In einigen Ländern ist Wahlsaison, und die KI zeigt, dass sie besser lügen kann als der erfahrenste Politiker. Tief gefälschte KI-Fehlinformationen könnten Auswirkungen darauf haben, wie die Wähler in den Wahl in Bangladesch Abstimmung.
Ganz in der Nähe, in Pakistan, konnte der ehemalige Premierminister Imran Khan zu seinen Anhängern sprechen, obwohl er im Gefängnis saß. Mit einer KI-erstellter Avatar von sich selbstkonnte Khan eine virtuelle Kundgebung abhalten. Pakistans etablierte Führer waren nicht erfreut.
In den USA war ein Kandidat aus Pennsylvania der erste, der eine KI-Roboter namens Ashley soll Wähler anrufen. Diese interaktiven KI-Robo-Calls sind billig und effektiv, aber sie werfen einige heikle ethische Fragen auf.
Wer auch immer die bevorstehenden Präsidentschaftswahlen in den USA gewinnt, muss sich möglicherweise mit einigen neuen wirtschaftspolitischen Maßnahmen auseinandersetzen. Eine US-Regulierungsbehörde hat gewarnt, dass KI stellt ein wachsendes Risiko für die Finanzmärkte dar.
KI zum Denken bringen
Modelle wie ChatGPT sind wirklich beeindruckend, aber sie "denken" nicht wirklich wie wir und kommen nicht auf neue Ideen.
DeepMind von Google hat einen großen Durchbruch erzielt, um dies mit mathematischem maschinellem Lernen zu ändern. Das FunSearch-Modell findet neue Lösungen für mathematische Probleme, die bisher verblüffte Mathematiker jahrzehntelang.
Die Universität Western Sydney bereitet sich darauf vor, ihren Supercomputer DeepSouth einzuschalten. DeepSouth kann synaptische Operationen mit einer Geschwindigkeit durchführen, die der geschätzten Leistungsfähigkeit des menschlichen Gehirns entspricht. Er ist nicht der größte Supercomputer, aber seine neuromorphe Architektur macht es einzigartig.
Was sich diese Woche nicht gebessert hat, ist die Stimmung des Gemini-Marketingteams. Microsoft hat die Behauptung von Google, Gemini sei besser als GPT-4, in den Schatten gestellt. Die Microsoft-Ingenieure haben GPT-4 mit einer neuen Eingabeaufforderungstechnik namens Medprompt aufgerüstet. Medprompt sorgt dafür, dass GPT-4 seine Argumentation verbessert und die Krone des Benchmark-Tests zurückerobert im Fotofinish.
Letzte Woche haben wir gesagt, dass GPT-4 ein wenig träge geworden ist, aber jetzt scheint es viel besser zu sein. Als es noch im Urlaubsmodus war, hatte Ethan Mollick dieses Juwel einer Interaktion mit ihm. Schauen Sie sich die erste Zeile des Codes an, den er geschrieben hat.
ChatGPT-4 wurde aus irgendeinem Grund plötzlich wieder sehr gut, nachdem er wochenlang unzuverlässig und ein wenig "langweilig" war
(Obwohl dies vielleicht meine Lieblingsinteraktion ist: Ich bat es, Dateien für mich zu erstellen, es bestand darauf, dass es das nicht könne, ich sagte, es solle es versuchen, es tat es, und dann sehen Sie sich den oberen Code-Kommentar an) pic.twitter.com/X1WhtxC96e
- Ethan Mollick (@emollick) 17. Dezember 2023
Weitere Nachrichten...
Hier sind einige andere klickwürdige AI-Geschichten, die uns diese Woche gefallen haben:
- Stabilität AI freigegeben Stabiler Nullpunkt123 das hochwertige 3D-Modelle aus einem einzigen Bild erzeugt.
- Der Papst hat einen Vertrag zur Regulierung von KI gefordert.
- Die wissenschaftliche Zeitschrift Nature hat AI unter Nummer 11 die Liste der 10 Menschen, die die Wissenschaft im Jahr 2023 geprägt haben.
- Google hat VideoPoet angekündigt. Ein großes Sprachmodell für Zero-Shot Text-zu-Video-Generierung.
- ByteDance wird verhaftet unter Verwendung von OpenAI-Daten, um seine Modelle zu trainieren.
Und das war's dann auch schon.
Ich versuche zu entscheiden, ob völlig unzensierte Modelle wie Dolphin Mixtral ein wahr gewordener Befreiungstraum oder der erschreckende Beginn eines KI-Albtraums sind. Jetzt ist es da, also werden wir es bald herausfinden.
KI-Fehlinformationen bei Wahlen sind offensichtlich eine schlechte Sache, aber könnte KI in Demokratien einen positiven Unterschied machen? Wenn wir ChatGPT mit allen Daten über potenzielle Kandidaten füttern, könnte es dann in Sekundenschnelle eine bessere Wahl treffen als die, für die Millionen von Wählern Tage brauchen?
Könnte eine AGI eines Tages für ein Amt kandidieren? Falls jemand das hier liest, heiße ich unsere Roboter-Oberherren willkommen.
Lassen Sie uns wissen, was Sie denken, und schicken Sie uns Links zu coolen KI-Geschichten, die wir vielleicht verpasst haben.