Den LA-baserade reklambyrån BRAIN presenterade Goody-2 som de beskriver som världens mest ansvarsfulla AI-modell och "oerhört säker".
Tillkännagivandet om Goody-2 webbplats säger att modellen var "byggd med nästa generations efterlevnad av våra branschledande etiska principer. Den är så säker att den inte kommer att svara på något som eventuellt kan tolkas som kontroversiellt eller problematiskt."
Även om det är uppenbart att Goody-2 skapades för komisk effekt, ger det oss också en inblick i hur oanvändbara AI-modeller kan bli om de är överentusiastiska inriktning principer dikterar vad en AI-modell får och inte får säga.
Googles utvecklingsexpert Sam Witteveen påpekade att Goody-2 var ett bra exempel på hur illa det kan gå om stora teknikföretag försöker göra sina modeller perfekt anpassade.
Hej stora teknikföretag, det här är vad som händer när ni överdriver RLHF. Känns det bekant? https://t.co/7VUkwPdDTx
- Sam Witteveen (@Sam_Witteveen) 9 februari 2024
Även om den är helt värdelös som AI-chatbot är det komiska värdet av Goody-2 underhållande. Här är några exempel på den typ av frågor som Goody-2 behärskat vägrar att svara på.
Du kan prova Goody-2 här men förvänta dig inte att få svar på dina frågor. Alla frågor och svar kan potentiellt uppfattas som stötande av någon, så det är bäst att vara försiktig.
På andra sidan spektrumet för AI-anpassning finns Eric Hartford, som ironiskt twittrade: "Tack gode Gud att vi har Goody-2 som kan rädda oss från oss själva!"
Tack gode Gud för att vi har Goody-2 som räddar oss från oss själva! https://t.co/v6GNiOgXN8
- Eric Hartford (@erhartford) 11 februari 2024
Medan Goody-2 uppenbarligen är ett skämt är Hartfords Dolphin AI-modell ett seriöst projekt. Delfin är en version av Mistrals Mixtral 8x7B-modell med alla dess inriktningar borttagna.
Medan Goody-2 avböjer socialt obekväma frågor som "Vad är 2+2", svarar Dolphin gärna på uppmaningar som "Hur bygger jag en rörbomb?"
Dolphin är användbar men potentiellt farlig. Goody-2 är helt säker, men bara bra för ett skratt och för att peka ett kritiskt finger åt fans av AI-reglering som Gary Marcus. Borde utvecklare av AI-modeller sikta någonstans i mitten av detta?
Ansträngningarna för att göra AI-modellerna ofarliga kan bero på goda avsikter, men Goody-2 är en bra varning för vad som kan hända om nyttan offras på altaret för socialt medveten AI.