Alcuni utenti di ChatGPT hanno riscontrato che ChatGPT è diventato un po' pigro negli ultimi giorni e alcuni suggeriscono che potrebbe imitare il rallentamento degli esseri umani quando arriva l'inverno.
Se avete usato ChatGPT ultimamente, potreste aver dovuto sollecitarlo un po' più del solito per fargli fare quello che volevate. Alcuni utenti hanno trovato le sue risposte più brevi del solito. A volte ChatGPT vi spiega come fare qualcosa invece di farlo effettivamente per voi.
La maggior parte degli utenti di ChatGPT vive nell'emisfero settentrionale e sa fin troppo bene che l'entusiasmo per il lavoro può diminuire quando l'anno volge al termine e arriva l'inverno. ChatGPT potrebbe aver imparato questo comportamento da noi?
OpenAI si è comportata come al solito in modo poco trasparente e non ha offerto alcuna spiegazione. Ma ci sono state abbastanza lamentele da indurre l'azienda a rispondere "stiamo cercando di risolvere il problema".
abbiamo ascoltato tutti i vostri commenti sul fatto che GPT4 è diventato più pigro! non abbiamo aggiornato il modello dall'11 novembre, e questo non è certamente intenzionale. il comportamento del modello può essere imprevedibile, e stiamo cercando di risolvere il problema 🫡
- ChatGPT (@ChatGPTapp) 8 dicembre 2023
Il disturbo affettivo stagionale è un fenomeno reale, ma potrebbe influenzare una macchina che esegue codice solo a causa della data del sistema? ChatGPT riflette i nostri pregiudizi e riferimenti culturali nelle sue risposte, quindi potrebbe imitare il modo in cui rallentiamo a dicembre?
Rob Lynch ha pubblicato i risultati del suo esperimento su X che sembrano suggerire che l'ipotesi della pausa invernale dell'intelligenza artificiale possa avere un senso. Eseguendo un compito di completamento del codice tramite l'API, ChatGPT ha fornito risposte statisticamente significative più brevi con una data di sistema di dicembre rispetto a una data di maggio.
@ChatGPTapp @OpenAI @tszzl @emollick @voooooogel Risultato selvaggio. gpt-4-turbo su API produce (in modo statisticamente significativo) completamenti più brevi quando "pensa" che sia dicembre rispetto a quando pensa che sia maggio (come determinato dalla data nel prompt del sistema).
Ho preso la stessa identica richiesta... pic.twitter.com/mA7sqZUA0r
- Rob Lynch (@RobLynch99) 11 dicembre 2023
Ian Arawjo, borsista post-dottorato presso l'Università di Harvard, ha fatto notare che le lunghezze dei token e dei caratteri nelle risposte di ChatGPT non sono distribuite normalmente, quindi il test di Lynch non è valido.
Senza entrare nel dettaglio della matematica delle statistiche, Arawjo ha eseguito il tipo di test corretto per questo tipo di dati e non ha riscontrato alcuna differenza statistica nella lunghezza delle risposte. Arawjo dice che c'è nessuna prova di ChatGPT che soffre di una qualche forma di disturbo affettivo stagionale.
ChatGPT sta diventando pigro o ce lo stiamo immaginando? Anche gli ingegneri che creano modelli di IA li trovano a volte imperscrutabili, quindi è difficile dirlo. Dovremo aspettare per vedere se OpenAI fornirà un feedback sulla questione.