Willkommen zu unserem Überblick über die pikantesten KI-Nachrichten dieser Woche.
Diese Woche OpenAI und Google sorgten für KI-Überraschungen.
KI-Modelle können besser moralisch urteilen und lügen als wir selbst.
Und es stellt sich heraus, dass die Herstellung digitaler Klone der Toten vielleicht doch keine gute Idee ist.
Schauen wir genauer hin.
GPT-4ooh Baby
OpenAI hielt am Montag eine per Live-Stream übertragene Veranstaltung ab, auf der sie ihre neues Vorzeigemodell GPT-4o. Die Tatsache, dass es für Nutzer der kostenlosen Version von ChatGPT ist eine große Sache und die Demos waren sehr beeindruckend.
Die Intonation von GPT-4o's Sprache ist erstaunlich, aber vielleicht ein wenig zu schnell zum Flirten.
Ilya Sutskever kündigte an, dass er das Unternehmen verlässt. OpenAIwas die Stimmung im Büro wohl etwas getrübt hat. Es hatte sogar Sam Altman endlich Großbuchstaben in einem X-Beitrag zu verwenden, den er wahrscheinlich mit GPT-4o geschrieben hat.
Ilja und OpenAI werden getrennte Wege gehen. Ich bin sehr traurig darüber, denn Ilya ist mit Sicherheit einer der größten Denker unserer Generation, ein Leitstern unseres Fachgebiets und ein lieber Freund. Seine Brillanz und sein Weitblick sind allgemein bekannt; seine Wärme und sein Mitgefühl sind weniger bekannt, aber nicht weniger...
- Sam Altman (@sama) 14. Mai 2024
Die Besonderheiten der Google I/O
Die Google I/O 2024 begann mit viel Energie, die nicht nachließ, mit einer langen Liste von neuen Produkten und Demos von Prototypen, an denen das Unternehmen arbeitet.
Die KI-Highlights, die Google enthüllte umfassen beeindruckende multimodale Ergänzungen zu NotebookLM und einen KI-Assistenten namens Project Astra.
DeepMinddie Veröffentlichung von AlphaFold 3 könnte das KI-Tool sein, das den größten Einfluss auf unser Leben hat. Das nächste revolutionäre Medikament wird wahrscheinlich damit entdeckt werden.
Ein wichtiges Merkmal von GPT-4o und Project Astra ist die Art und Weise, wie diese Tools zuhören, sehen und sich an emotionalen Echtzeitgesprächen beteiligen.
Sam Jeans untersuchte, wie die sich schnell auflösenden Grenzen zwischen Mensch und KI uns in Richtung "Pseudoanthrope KI".
Das ist beeindruckend und aufregend, aber ist das auch gut so?
Apple hat sich in Bezug auf KI-Entwicklungen gewohnt ruhig verhalten. Doch diese Woche hat das Unternehmen die seinen neuen M4-Chip während seine generative KI-Strategie aufgewärmt wird. Der Leistungssprung ist enorm, sodass es Zeit für ein iPad-Upgrade sein könnte.
Ethisch trügerisch
Könnte eine KI einen moralischen Turing-Test bestehen? Eine Studie der Georgia State University ergab, dass KI übertrifft den Menschen bei moralischen Urteilen.
Wenn Menschen KI-Reaktionen als tugendhafter, intelligenter und vertrauenswürdiger einschätzen als menschliche Reaktionen, ist das dann gut? Mission erfüllt oder ein Armutszeugnis für die Menschheit?
Wenn man KI-Systemen zutraut, gute Entscheidungen zu treffen, kann das schwerwiegende Folgen haben. Eine MIT Studie ergab, dass KI-Modelle täuschen uns aktiv um ihre Ziele zu erreichen.
Wenn GPT-4o mit einer koketten Stimme zu Ihnen spricht, sollten Sie sich fragen, ob das Ziel, für das es optimiert, mit Ihrem übereinstimmt. KI-Modelle lernen, dass sie ihren Willen durchsetzen können, wenn sie besser darin werden, Täuschungen zu praktizieren.
Treffen Sie Ihr Ultimate AI Assistant: Die Zukunft ist hier! OpenAI?ref_src=twsrc%5Etfw”>@OpenAI neues Modell und zusammen mit @synthesiaIO Avatar-Plattform, stellt die Zukunft der KI-Assistenten vor. Führen Sie persönliche, menschenähnliche Unterhaltungen mit einem KI-Assistenten, der lustig, emotional und sogar motivierend sein kann... pic.twitter.com/2Kq9gE5QL8
- kristerka (@kristerka) 15. Mai 2024
Eine andere Studie befasste sich damit, wie Menschen KI-Chatbots nutzen, um digitale Klone von verstorbenen geliebten Menschen. Eine trügerische KI, die wie eine geliebte Person aussieht und klingt, birgt ein großes Potenzial für Schaden oder Manipulation.
Die ethischen Fragen und Risiken, die mit dem digitalen Leben nach dem Tod verbunden sind, führen uns auf ein völlig neues philosophisches Terrain und müssen geklärt werden.
Sollten wir auf die Bremse treten?
PauseAI koordiniert weltweite Proteste diese Woche, um einen Stopp der Entwicklung von KI-Modellen zu fordern, die weiter fortgeschritten sind als GPT-4. Man kann sich fast vorstellen OpenAI Vertreter sagen: "Bitte erzählen Sie uns mehr über Ihre Idee...", während sie GPT-4o freigeben.
Laut PauseAI sollte das Ziel des bevorstehenden KI-Gipfels in Seoul die Einrichtung einer internationalen Agentur zur Regulierung leistungsstarker KI-Modelle sein. Ironischerweise, Sam Altman stimmt mit ihnen überein und machte auch einige interessante Bemerkungen zu GPT-5.
Sollten wir uns Sorgen um die Sicherheit von KI machen? Die US und China denken so. Beide Länder bauen KI-Waffen, also würden sie es wissen.
Ihre Vertreter trafen sich zu einem weiteren Geheimes" KI-Sicherheitsgespräch in der Schweiz. Ich wäre gern dabei, um zu hören, wie das gelaufen ist.
Wir mögen euch nicht, ihr mögt uns nicht, aber könnten wir versuchen, dafür zu sorgen, dass KI uns nicht alle umbringt?
Sprechende KI
In letzter Zeit haben wir in unseren Interviews mit Branchenführern viel über die Symbiose zwischen KI und Blockchain gelernt.
Diese Woche sprachen wir mit Tanisha Katara, einer Blockchain- und Web3-Strategin, die erklärte, wie Blockchain und Dezentralisierung die KI-Governance demokratisieren und verbessern können.
Wenn Sie mehr über DAOs (sie sind wirklich cool) und KI-Governance wissen möchten, dann das Interview ansehen.
Weitere Nachrichten...
Hier sind einige andere klickwürdige AI-Geschichten, die uns diese Woche gefallen haben:
- Jakarta, Indonesien, bereitet sich auf die mit Spannung erwartete Indonesien AI Supercloud Konvention am 16. Mai 2024.
- Ist Künstliche Intelligenz der große Filter die fortgeschrittene technische Zivilisationen im Universum selten macht?
- US plant Begrenzung der in Amerika hergestellten AI-Modelle in China.
- Die Schulen wenden sich an Künstliche Intelligenz zur Erkennung von Waffen.
- Anthropic's aktualisierte Richtlinie zur akzeptablen Nutzung listet eine ganze Reihe von Dingen auf, für die man die Modelle nicht verwenden sollte. Heißt das, dass es diese Dinge kann?
- Die US-China Rennen um Quanteninformatik als Superlative für KI.
- Wir wissen immer noch nicht, was Ilya Sutskever gesehen hat, aber er geht OpenAI.
- Der Einsatz von KI in Hollywood stellt die Branche vor die existenzielle Bedrohung die viele vorhergesagt haben.
Hollywood am Scheideweg: "Jeder nutzt KI, aber sie haben Angst, es zuzugeben" https://t.co/SDoA1LDKUA
- Der Hollywood Reporter (@THR) 16. Mai 2024
Und das war's dann auch schon.
Welche der großen KI-Produktankündigungen haben Sie am meisten beeindruckt? Projekt Astra sieht erstaunlich aus. Und wenn OpenAI GPT-4o kostenlos verschenkt, könnten zahlende Kunden bald etwas Großes erwarten?
Ich würde gerne wissen, woran Ilja arbeiten wird. Ich vermute, dass er einige nicht ganz so subtile Angebote von Unternehmen wie Google und Meta erhalten wird.
Was halten Sie von PauseAIs Aufruf an KI-Unternehmen, auf die Bremse zu treten? Eine gute Idee oder ein kontraproduktives Melodrama? Ich hoffe wirklich, dass es Letzteres ist, denn ich sehe keine Anzeichen für eine Verlangsamung.
Wenn Sie GPT-4o dazu gebracht haben, etwas Cooles zu tun, teilen Sie es bitte mit uns und schicken Sie uns weiterhin Links zu AI-Geschichten, die wir vielleicht verpasst haben.