ChatGPT è stato lanciato nel mondo poco più di un anno fa. Il software chatbot è diventato molto popolare in breve tempo. In meno di due mesi ChatGPT ha raggiunto cento milioni di utenti, un risultato senza precedenti nel mondo della tecnologia. Lo strumento deve la sua popolarità alle numerose attività che può svolgere. Che si tratti di scrivere testo, generare codice o compilare un foglio di calcolo: ChatGPT è diventato per molte persone uno strumento indispensabile sul posto di lavoro.
Ma nelle ultime settimane il chatbot ha iniziato a mostrare un comportamento un po’ strano. Gli utenti di X, ex Twitter, segnalano sempre più spesso che ChatGPT non risponde alle loro domande o le risponde solo parzialmente. Ad esempio, invece di generare codice, lo strumento mostra agli utenti come scriverlo da soli. Vuoi compilare un file CSV (specifica per file tabellari)? Fallo da solo.
OpenAI stessa non lo sa
Il problema ha raggiunto rapidamente proporzioni tali che la stessa OpenAI è stata costretta a rispondere. “Non aggiorniamo il modello dall'11 novembre e non c'è certamente alcuna intenzione di farlo. Il comportamento del modello può essere imprevedibile e stiamo cercando di risolvere questo problema”, ha detto la società dietro il chatbot. In altre parole, OpenAI stessa non ne ha idea .su quello che sta succedendo.
Abbiamo sentito tutti i tuoi commenti sul fatto che GPT4 sia troppo pigro! Non aggiorniamo il modello dall'11 novembre e questo non è certamente intenzionale. Il comportamento del modulo può essere imprevedibile e stiamo cercando di risolverlo 🫡
— ChatGPT (@ChatGPTapp) 8 dicembre 2023
Quindi spetta agli utenti scoprire cosa c'è che non va. Alcuni hanno avuto la sorprendente idea che ciò abbia a che fare con il periodo dell’anno. Più specificamente, si dice che ChatGPT soffra di un tipo di depressione stagionale. La logica alla base di ciò è che il modello avrebbe imparato dai set di dati su cui è stato addestrato che le persone rallentano a dicembre e potrebbe imitare quel comportamento.
Michel Vandendreich, co-fondatore della startup Raccoons di Lovanio, lo spiega ulteriormente. “Ci sono persone che hanno studiato questo problema e parlano di un risultato statisticamente significativo”. Ad esempio, secondo questi ricercatori, se inserisci un compito a maggio, riceverai risposte più complesse rispetto a dicembre. “Ma OpenAI stessa non ha trovato alcuna connessione”, afferma Vandendreich.
Lui stesso ritiene improbabile che l'inverno abbia un impatto sul comportamento di ChatGPT. “Mi sembra molto strano che questa sia effettivamente la ragione”, ha detto. Un’altra possibile spiegazione, secondo gli esperti di Raccoons Vandendriessche, è che l’energia è semplicemente più costosa durante i mesi invernali, il che potrebbe indurre OpenAI a decidere consapevolmente di ridurre la produzione. D'altro canto OpenAI si contraddice dicendo di non conoscerne il motivo, ammette Vandendreich.
Un’altra possibile spiegazione è che il carico sui server sia semplicemente diventato eccessivo a causa dell’enorme popolarità di ChatGPT. A metà novembre, ad esempio, OpenAI è stata costretta a smettere temporaneamente di accettare nuove iscrizioni. Ciò è accaduto poco dopo il primo OpenAI DevDay, in cui sono stati annunciati alcuni nuovi strumenti, inclusa la possibilità di creare il proprio chatbot GPT personalizzato. A metà dicembre, il CEO Sam Altman ha pubblicato quanto segue su X: “Abbiamo riattivato gli abbonamenti ChatGPT+!” Grazie per la pazienza mentre troviamo altre GPU. Tuttavia, da allora ci sono ancora utenti che si lamentano della scarsa efficienza di ChatGPT.
'scatola nera'
Anche se non è ancora del tutto chiaro cosa stia succedendo e se ChatGPT stia soffrendo la depressione invernale, una cosa è certa. La tecnologia comincia sempre più a comportarsi come una “scatola nera”. Ciò significa che conosciamo solo gli input e gli output, ma in realtà non abbiamo idea di cosa stia accadendo all’interno del sistema.
“Persino i ricercatori senior di OpenAI non possono prevedere in alcun modo, nemmeno osservando il codice sottostante, il risultato esatto”, afferma Vandendreich. Dopotutto, i LLM, o modelli linguistici di grandi dimensioni (algoritmi in grado di generare contenuti utilizzando set di dati molto grandi; nel caso di ChatGPT, quasi l'intera Internet) funzionano eseguendo calcoli complessi per arrivare a una risposta. “Questi calcoli sono semplicemente al di là della comprensione delle persone”, ha affermato il co-fondatore di Raccoons.
“Man mano che i sistemi diventano più complessi, accadrà sempre più spesso che semplicemente non sappiamo cosa sta succedendo”, afferma Vandendreich. “Tuttavia, questo non deve essere un problema. Finché possiamo verificare che i risultati non siano eccessivi, dovremmo chiederci quanto sia grave non sempre avere una visione di come l'IA è arrivata a un particolare risposta.”
Fai un respiro profondo
Ma anche se non sempre sappiamo perché un chatbot fornisce una determinata risposta, nel frattempo possiamo trovare il modo di generare l'output desiderato. Anche in questo caso ChatGPT a volte sembra prendere il sopravvento sul comportamento umano.
Ad esempio, più grande è la punta, più lunga diventa la risposta. Altri dicono che ChatGPT deve dare loro un piccolo incoraggiamento per andare avanti, come un allenatore che dà una spinta in più a un atleta. Anche quando chiedi al chatbot di fare un respiro profondo prima di rispondere, sembra che funzioni meglio. Anche scrivere tutto in maiuscolo sembra avere effetto.
Quindi, la prossima volta che ChatGPT ti dà una risposta deludente, sii paziente. Forse dovresti solo essere più empatico e chiedere molto gentilmente se il chatbot vuole farlo di nuovo. Se non funziona, puoi sempre provare a corrompere lo strumento.
In collaborazione con DataNews
“Specialista televisivo. Amichevole fanatico del web. Studioso di cibo. Drogato estremo di caffè.”