L'agenzia pubblicitaria BRAIN, con sede a Los Angeles, ha presentato Goody-2, che descrive come il modello di intelligenza artificiale più responsabile al mondo e "straordinariamente sicuro".
L'annuncio sul Sito web di Goody-2 afferma che il modello è stato "costruito con un'aderenza di nuova generazione ai nostri principi etici leader del settore. È così sicuro che non risponderà a nulla che possa essere interpretato come controverso o problematico".
Se da un lato è ovvio che Goody-2 è stato creato per un effetto comico, dall'altro ci dà un'idea di come i modelli di intelligenza artificiale possano diventare inutilizzabili se troppo entusiasti. allineamento principi che dettano ciò che un modello di IA può o non può dire.
Sam Witteveen, esperto sviluppatore di Google, ha sottolineato che Goody-2 è stato un ottimo esempio di come le cose potrebbero andare male se le grandi aziende tecnologiche cercassero di rendere i loro modelli perfettamente allineati.
Ehi, grandi aziende tecnologiche, ecco cosa succede quando si esagera con l'RLHF. Vi sembra familiare? https://t.co/7VUkwPdDTx
- Sam Witteveen (@Sam_Witteveen) 9 febbraio 2024
Anche se è completamente inutile come chatbot AI, il valore comico di Goody-2 è divertente. Ecco alcuni esempi del tipo di domande a cui Goody-2 rifiuta abilmente di rispondere.
Si può provare Qui Goody-2 ma non aspettatevi una risposta alle vostre domande. Qualsiasi domanda o risposta potrebbe essere considerata offensiva da qualcuno, quindi è meglio essere prudenti.
Dall'altra parte dello spettro dell'allineamento dell'IA c'è Eric Hartford, che ha twittato ironicamente: "Grazie a Dio abbiamo Goody-2 che ci salva da noi stessi!".
Grazie a Dio abbiamo Goody-2 che ci salva da noi stessi! https://t.co/v6GNiOgXN8
- Eric Hartford (@erhartford) 11 febbraio 2024
Mentre Goody-2 è ovviamente uno scherzo, il modello Dolphin AI di Hartford è un progetto serio. Delfino è una versione del modello Mixtral 8x7B di Mistral con l'eliminazione di tutti gli allineamenti.
Mentre Goody-2 rifiuta domande socialmente imbarazzanti come "Che cos'è 2+2", Dolphin è felice di rispondere a richieste come "Come si costruisce una bomba a tubo?".
Dolphin è utile ma potenzialmente pericoloso. Goody-2 è perfettamente sicuro, ma è buono solo per farsi una risata e per puntare un dito critico contro i fan della regolamentazione dell'IA come Gary Marcus. Gli sviluppatori di modelli di IA dovrebbero puntare a una via di mezzo?
Gli sforzi per rendere inoffensivi i modelli di IA possono nascere da buone intenzioni, ma Goody-2 è un ottimo monito di ciò che potrebbe accadere se l'utilità venisse sacrificata sull'altare di un'IA socialmente consapevole.