Come sviluppatore, non sono ancora troppo preoccupato. Recentemente ho cercato di utilizzare l’intelligenza artificiale nel mio lavoro. All’inizio questo sembra andare bene, ChatGPT (e altri sistemi di intelligenza artificiale) ha presto il fattore “wow”.
Nel momento in cui dai un’occhiata più da vicino, l’IA cade nel canestro. Il grosso problema è che l’IA non è ancora in grado di ragionare logicamente (va bene?) né è in grado di convalidare se stessa. Quello che fa è fornire una risposta, anche se è una totale assurdità.
È come lasciare che un bambino di 5 anni risponda con una conoscenza illimitata. Più dettagliata è la domanda, meno importante diventa ogni punto. Più lunga è la risposta, più ipotesi e scorciatoie vengono prese per generare una risposta (linguaggio tecnicamente corretto).
Ad esempio, un problema basato sull’affermazione “Sono sempre le cinque da qualche parte”:
In quale paese l’ora locale è tra le 16:00 e le 18:00 adesso? Guardando che ora sono le 09:11, 13/04/2023 in Paesi Bassi
Risposta (GPT 4):
Poiché i Paesi Bassi si trovano nell’ora dell’Europa centrale (CET), che è GMT+2, l’ora locale è due ore avanti rispetto all’ora di Greenwich. Pertanto, se attualmente sono le 09:11 nei Paesi Bassi il 13 aprile 2023, l’ora locale sarà tra le 16:00 e le 18:00 nei paesi che sono da due a quattro ore indietro rispetto all’ora dell’Europa centrale. Ecco alcuni esempi di paesi in cui puoi essere tra le 16:00 e le 18:00:Regno Unito (GMT+1)
Portogallo (GMT+1)
Irlanda (GMT+1)
Islanda (GMT)
Capo Verde (GMT-1)
Groenlandia (GMT-2)
…
L’inizio sta andando bene, ma “così” è già andato storto. L’elenco delle risposte è un sottoinsieme completamente diverso e sembra essere stato aggiunto a caso. GPT non può (ancora) interpretarlo al momento e ovviamente / quindi non può controllarsi o convalidarsi.