Il governatore della California Gavin Newsom ha bloccato la legislazione che garantirebbe la sicurezza dei modelli di intelligenza artificiale generativa. Newsom riconosce la necessità di misure, ma ritiene che il disegno di legge sia troppo ampio.
L’SB 1047 prevedeva obblighi di sicurezza per i produttori di modelli di intelligenza artificiale avanzati o costosi. Lo scrive la Reuters. Gli sviluppatori hanno dovuto anche integrare il kill switch nel modello AI, rendendone più semplice la disattivazione. La legge creerebbe anche un ente governativo incaricato di supervisionare lo sviluppo dei futuri “modelli di frontiera” avanzati.
Le società madri di Google, Microsoft, OpenAI e Meta, tra le altre, hanno criticato la legge e ritengono che sia andata troppo oltre. Quale Anche Gavin Newsom la pensa cosìgovernatore dello stato. Quindi si è opposto e ha così bloccato la legge. Secondo lui la legge aveva le “giuste intenzioni” ma era troppo ampia. Ad esempio, secondo Newsom, la legge avrebbe dovuto tenere conto se i sistemi utilizzavano dati sensibili, se venivano utilizzati in “circostanze ad alto rischio” o se prendevano decisioni da soli.
“La legge invece stabilisce standard rigorosi anche per le funzioni di base purché venga utilizzato un modello di intelligenza artificiale di grandi dimensioni”, afferma Newsom. “Non penso che questo sia il modo migliore per proteggere la popolazione dalle minacce reali poste dalla tecnologia. ” Riconosce che l’intelligenza artificiale rappresenta un rischio per la democrazia e la privacy online, ad esempio, ma ritiene che la legge si concentri troppo sulle dimensioni del modello. Anche i modelli più piccoli possono essere dannosi, sebbene non siano coperti da SB 1047.
Pertanto, la legge dà ai residenti un’apparenza di sicurezza, ma non necessariamente fornisce loro una protezione completa. Quindi Newsom vuole collaborare con lo Stato, gli esperti e gli scienziati per adottare misure per ridurre gli effetti dannosi dell’intelligenza artificiale.