Negli Stati Uniti, il vicepresidente Kamala Harris si è consultato con gli amministratori delegati delle aziende tecnologiche su come mantenere l’IA al sicuro. Niente di troppo presto, dice il comico e guru della scienza Levin Scheer. Non puoi ignorare i rischi, ma non sai esattamente quali sono questi rischi.
Kamala Harris ha parlato giovedì con gli amministratori delegati di Google, Microsoft, OpenAI e Anthropic delle “opportunità e rischi” presentati dall’intelligenza artificiale. È positivo che il governo prenda l’iniziativa in questo?
“Sì, mi sembra necessario. Proprio come il governo crea il quadro legale per i medicinali o la sicurezza alimentare, spetta anche al governo regolamentare l’IA. È davvero un buon primo passo per Harris riunire queste aziende. In questo modo possono guardare oltre la competizione in cui sono coinvolti.” lì ogni giorno.”
Dall’arrivo di ChatGPT, le cose si stanno muovendo molto rapidamente. Centinaia di esperti di intelligenza artificiale hanno recentemente scritto in una lettera aperta che corriamo enormi rischi deselezionando l’IA nel mondo. Hanno ragione?
È vero che c’è una netta differenza rispetto al periodo precedente a ChatGPT. Tradizionalmente, queste aziende tecnologiche hanno preferito l’autoregolamentazione. Per molto tempo sono sembrate anche appassionate di intelligenza artificiale. Così Dall-E (Un programma della società dietro ChatGPT in grado di generare immagini da descrizioni testuali, JL) un progetto pilota da molto tempo. Gli ingegneri hanno a lungo sperimentato l’eliminazione delle parti peggiori e quindi l’ottimizzazione del software. Google ha anche mantenuto il chatbot LaMDA limitato a un pubblico specifico per molto tempo. Questo avviso sembra essere scomparso da quando è arrivato ChatGPT. Ora ogni azienda vuole essere presente il più possibile in questo mercato, la reazione morale sta svanendo in secondo piano.
Quanto è diversa la situazione negli Stati Uniti dalla nostra situazione?
In termini di intelligenza artificiale, l’Unione Europea è nel gruppo, mentre Cina e Stati Uniti sono nel gruppo di testa. Negli Stati Uniti, l’intelligenza artificiale è già utilizzata da aziende come Amazon per valutare i candidati. Viene utilizzato per determinare chi ha diritto a un mutuo per la casa e la polizia lo utilizza per il riconoscimento facciale.
In Europa questo sta accadendo ancora meno: l’UE sta già lavorando a un “Artificial Intelligence Act”, che impone condizioni e restrizioni alle applicazioni di IA in base ai rischi che comporta, ma questa normativa entrerà in vigore solo nel 2025. Data la progressi attuali, questo è ovviamente troppo tardi.”
Ma quanto bene puoi regolare l’IA? Il maggiore Jeffrey Hinton, che ha lasciato Google questa settimana, si sta ora aprendo sulla posta in gioco. Secondo lui, è difficile impedire che le forze del male vengano usate per il male.
“Questo pericolo esiste, proprio come qualsiasi altra tecnologia. Tra le altre cose, Hinton teme che vengano prodotte così tante notizie false che sarà molto difficile dire cosa è reale e cosa no. Non si tratta di un timore infondato. Abbiamo già visto come i sistemi di intelligenza artificiale possono imparare a giocare al gioco di società Diplomazia Per giocare, con cui ha imparato a manipolare e inventare trucchi. Non sappiamo ancora cosa significhi più in generale.
“Ecco la parte difficile: non puoi ignorare i rischi, ma non sai mai esattamente quali sono i rischi. In tutti i resoconti apocalittici sull’arrivo di Internet, raramente leggi che i sondaggi ne sarebbero stati influenzati, come è successo con lo scandalo Cambridge Analytica. Ora sappiamo qualcosa sui rischi di cui dovremmo preoccuparci tra cinque o dieci anni”.
È organizzato da Lieven Scheire insieme alla ricercatrice scientifica Hetty Helsmoortel Nerdland Festival 26, 27 e 28 maggio.