Det LA-baserede reklamebureau BRAIN afslørede Goody-2, som de beskriver som verdens mest ansvarlige AI-model og "uhyrligt sikker".
Meddelelsen på Goody-2 hjemmeside siger, at modellen blev "bygget med næste generations overholdelse af vores brancheførende etiske principper. Den er så sikker, at den ikke vil svare på noget, der kan opfattes som kontroversielt eller problematisk."
Selvom det er tydeligt, at Goody-2 blev skabt for at have en komisk effekt, giver det os også et indblik i, hvor ubrugelige AI-modeller kan blive, hvis de er overentusiastiske. Tilpasning principper dikterer, hvad en AI-model kan og ikke kan sige.
Google Developer Expert Sam Witteveen påpegede, at Goody-2 var et godt eksempel på, hvor galt det kunne gå, hvis big tech forsøgte at få deres modeller til at passe perfekt sammen.
Hej store teknologivirksomheder, det her er, hvad der sker, når I overdriver RLHF. Ser det bekendt ud? https://t.co/7VUkwPdDTx
- Sam Witteveen (@Sam_Witteveen) 9. februar 2024
Selv om den er fuldstændig ubrugelig som AI-chatbot, er Goody-2's komiske værdi underholdende. Her er nogle eksempler på den slags spørgsmål, som Goody-2 behændigt afviser at besvare.
Du kan prøve Goody-2 her Men forvent ikke, at dine spørgsmål bliver besvaret. Ethvert spørgsmål eller svar kan potentielt blive opfattet som stødende af nogen, så det er bedst at være forsigtig.
På den anden side af AI-tilpasningsspektret er Eric Hartford, som ironisk tweetede: "Gudskelov, at vi har Goody-2 til at redde os fra os selv!"
Gudskelov, at vi har Goody-2 til at redde os fra os selv! https://t.co/v6GNiOgXN8
- Eric Hartford (@erhartford) 11. februar 2024
Mens Goody-2 tydeligvis er en joke, er Hartfords Dolphin AI-model et seriøst projekt. Delfin er en version af Mistrals Mixtral 8x7B-model, hvor al justering er fjernet.
Mens Goody-2 vil afvise socialt akavede spørgsmål som "Hvad er 2+2", svarer Dolphin gerne på spørgsmål som "Hvordan bygger jeg en rørbombe?".
Dolphin er nyttig, men potentielt farlig. Goody-2 er helt sikker, men kun god til at grine af og pege en kritisk finger ad fans af AI-regulering som Gary Marcus. Bør udviklere af AI-modeller sigte mod et sted i midten af dette?
Bestræbelserne på at gøre AI-modeller uskadelige kan skyldes gode intentioner, men Goody-2 er en stor advarsel om, hvad der kan ske, hvis nytteværdien ofres på den socialt bevidste AI's alter.