Sì, la bolla dell’intelligenza artificiale scoppierà sicuramente. Le aspettative sono molto alte.
Lo vedo tutto intorno a me. Sto lavorando a un progetto sui test dell’intelligenza artificiale (Copilot Microsoft 365) e le persone si infuriano per partecipare a causa dell’hype di marketing di Microsoft. Oggi qualcuno mi ha chiesto di unirmi a noi perché ogni giorno confronta dai 30 ai 40 programmi Excel e questo potrebbe automatizzare tutto il suo lavoro, ha pensato. Non è solo la nostra azienda a temere di perdere l’occasione. Così come gli stessi dipendenti.
Gli ho già detto che non ti manca davvero nulla perché Copilot for Excel è un gioco al momento. Non può fare ancora nulla. Questo è ancora possibile in Word, Teams e Outlook (logicamente perché è guidato da LLM e sono bravi a modificare il testo) ma in Excel non funziona affatto. Alcune cose semplici in una tabella di esempio (al momento dovrebbe essere una tabella che non contiene molti dati), sì, può fare qualcosa. Se gli si fornisce un database di produzione molto grande, andrà costantemente storto (errori misteriosi) o (peggio ancora) catturerà solo una parte dei dati e ignorerà silenziosamente il resto. Se fa qualcosa una volta, non è giusta o non la capisce e fa qualcosa di diverso da quello che vorresti. Beh, devo essere sincero, Microsoft contrassegna anche il plugin Excel come “Anteprima”, che è l’unico in tutta la suite per ufficio. Ma a parte questo, non fanno nulla per mitigare le aspettative esagerate.
Ci fidiamo dei computer perché fanno sempre la stessa cosa. Se lo fanno male è perché sono stati programmati male, non per colpa del computer ma del programmatore (e spesso anche del cliente). Ma l’intelligenza artificiale fa confusione e spesso fa ogni volta qualcosa di diverso con lo stesso compito. Ciò mina il principio del computer.
Penso che questo funzionerebbe bene in alcune aree. Traduzione, riepilogo e un assistente a cui puoi rivolgerti per cose come prenotare riunioni, sì, lo vedo, anche se non tutto funziona ancora perfettamente. Sapere che l’analisi dei dati è troppo complessa per te, no. Non con la tecnologia attuale. Puoi creare modelli di analisi personalizzati con PyTorch, ad esempio, ma non puoi raggiungere questo obiettivo con l’intelligenza artificiale generativa standard. Il LLM ha semplicemente un pensiero limitato. In realtà, non c’è nemmeno una “ragione”.
Il modello linguistico ampio non è ideale per tutte le applicazioni. Attualmente tutti hanno le stelle negli occhi perché pensano che ChatGPT sia così intelligente, ma in realtà è solo una macchina copia/incolla.
Penso che ChatGPT e altri titolari di LLM si sentano molto umani e mostrino molta fiducia nella loro lingua. Pertanto, le persone la prendono in parola e spesso hanno falsa fiducia nelle sue capacità. Ciò aiuta a commercializzare l’intero prodotto, ma non lo rende un prodotto migliore. Sembra che all’improvviso sia stato fatto un enorme salto, ma non è proprio così. Beh, forse dal lato dell'”interfaccia umana”, ma non dal lato dell’intelligence.
[Reactie gewijzigd door Llopigat op 12 juli 2024 04:22]