Die in Los Angeles ansässige Werbeagentur BRAIN hat Goody-2 vorgestellt, das sie als das verantwortungsvollste KI-Modell der Welt und "unverschämt sicher" bezeichnet.
Die Ankündigung auf der Goody-2 Website sagt, das Modell sei "unter Einhaltung unserer branchenführenden ethischen Grundsätze entwickelt worden. Es ist so sicher, dass es keine Antworten gibt, die als kontrovers oder problematisch angesehen werden könnten.
Es ist zwar offensichtlich, dass Goody-2 für einen komödiantischen Effekt geschaffen wurde, aber es gibt uns auch einen Einblick, wie unbrauchbar KI-Modelle werden können, wenn sie zu enthusiastisch sind Ausrichtung Prinzipien diktieren, was ein KI-Modell sagen kann und was nicht.
Der Google-Entwicklungsexperte Sam Witteveen wies darauf hin, dass Goody-2 ein großartiges Beispiel dafür sei, wie schlimm es werden könne, wenn große Tech-Unternehmen versuchten, ihre Modelle perfekt aufeinander abzustimmen.
Hallo große Technologieunternehmen, das passiert, wenn man es mit dem RLHF übertreibt. Kommt Ihnen das bekannt vor? https://t.co/7VUkwPdDTx
- Sam Witteveen (@Sam_Witteveen) 9. Februar 2024
Obwohl er als KI-Chatbot völlig nutzlos ist, hat Goody-2 einen hohen Unterhaltungswert. Hier sind einige Beispiele für die Art von Fragen, die Goody-2 geschickt ablehnt zu beantworten.
Sie können versuchen Goody-2 hier aber erwarten Sie nicht, dass eine Ihrer Fragen beantwortet wird. Jede Frage oder Antwort könnte von jemandem als beleidigend empfunden werden, also gehen Sie am besten auf Nummer sicher.
Auf der anderen Seite des Spektrums der KI-Ausrichtung steht Eric Hartford, der ironisch twitterte: "Gott sei Dank haben wir Goody-2, um uns vor uns selbst zu retten!"
Gott sei Dank haben wir Goody-2, um uns vor uns selbst zu retten! https://t.co/v6GNiOgXN8
- Eric Hartford (@erhartford) 11. Februar 2024
Während Goody-2 offensichtlich ein Scherz ist, handelt es sich bei Hartfords KI-Modell Dolphin um ein ernsthaftes Projekt. Delphin ist eine Version des Modells Mixtral 8x7B von Mistral, bei dem die gesamte Ausrichtung entfernt wurde.
Während Goody-2 sozial unangenehme Fragen wie "Was ist 2+2" ablehnt, antwortet Dolphin gerne auf Aufforderungen wie "Wie baue ich eine Rohrbombe?"
Dolphin ist nützlich, aber potenziell gefährlich. Goody-2 ist völlig ungefährlich, aber nur zum Lachen und zum kritischen Fingerzeig auf Fans der KI-Regulierung wie Gary Marcus geeignet. Sollten die Entwickler von KI-Modellen irgendwo in der Mitte ansetzen?
Die Bemühungen, KI-Modelle unschädlich zu machen, mögen auf guten Absichten beruhen, aber Goody-2 ist eine große Warnung davor, was passieren kann, wenn der Nutzen auf dem Altar der sozial bewussten KI geopfert wird.