venerdì, Novembre 15, 2024

L’Unione europea raggiunge un accordo provvisorio sul contenuto sostanziale della legislazione sull’intelligenza artificiale – IT Pro – Notizie

Deve leggere

Il Parlamento Europeo e il Consiglio dell’Unione Europea hanno raggiunto un accordo provvisorio sull’attuazione della legge sull’intelligenza artificiale. Ciò stabilisce una serie di regole a cui devono attenersi i sistemi di IA attivi in ​​Europa. Alcune app vengono anche bloccate completamente.

L’accordo completo non è stato ancora pubblicato, ma esiste comunicato stampa Rilasciato contiene alcune regole e usi vietati. L’ultima categoria comprende l’intelligenza artificiale utilizzata per creare risultati sociali e l’intelligenza artificiale “utilizzata per sfruttare le vulnerabilità delle persone, a causa della loro età, disabilità o status sociale o economico”. Ciò include anche applicazioni di riconoscimento delle emozioni sul posto di lavoro e nelle istituzioni educative.

Saranno vietati anche i sistemi di riconoscimento facciale che “utilizzano caratteristiche sensibili”, come le convinzioni politiche o religiose, l’origine e l’orientamento sessuale, così come i sistemi che catturano “non miratamente” volti da Internet o telecamere di sicurezza per creare database di riconoscimento facciale. . L’Unione Europea elenca alcune eccezioni per i sistemi di identificazione biometrica per le forze dell’ordine, a cui è consentito utilizzare tali sistemi a “condizioni rigorose”.

Inoltre, i sistemi considerati “ad alto rischio” devono soddisfare determinate condizioni. Secondo l’Unione Europea, questi sistemi hanno il potenziale di causare “danni significativi alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente, alla democrazia e allo stato di diritto”. Ciò include, ad esempio, sistemi che possono essere utilizzati per influenzare gli elettori e i risultati elettorali. Tali richieste devono, tra l’altro, essere soggette a una valutazione d’impatto obbligatoria, sebbene nel comunicato stampa non siano menzionati altri obblighi. Si afferma che gli utenti hanno il diritto di presentare reclami contro questi sistemi e di “ricevere chiarimenti sulle scelte riguardanti i sistemi di intelligenza artificiale ad alto rischio che influiscono sui loro diritti”.

READ  "La mobilità di Bruxelles non ha una propria rete stradale"

Infine, sono state emanate norme anche a questo scopo Obiettivo generale-Modelli di intelligenza artificiale, come GPT-4, e sistemi che utilizzano tali modelli. Questi devono soddisfare i requisiti di trasparenza previsti dalla legge sull’intelligenza artificiale. Ad esempio, le aziende dietro questi modelli devono fornire riepiloghi dettagliati dei contenuti utilizzati per la formazione, garantire che la legge sul diritto d’autore non venga violata, condividere la “documentazione tecnica” e fornire garanzie contro la creazione di contenuti illegali.

Se la GPAI, secondo l’UE, rappresenta un “rischio sistemico”, deve soddisfare requisiti più rigorosi. È quindi necessario condurre valutazioni del modello e testare e mitigare i rischi sistemici identificati. Inoltre, il modulo deve essere ostile Sono testati, la sicurezza informatica deve essere garantita e i produttori devono rendere pubblico il consumo energetico. In caso di “incidenti gravi” la Commissione Europea deve essere informata. Non vengono menzionati i criteri che i sistemi devono soddisfare per essere considerati un “rischio sistemico”.

Se le aziende di intelligenza artificiale violano una delle regole, rischiano multe di 35 milioni di euro, o un massimo del 7% delle loro entrate globali, con un massimo di 7,5 milioni di euro. La legge sull’intelligenza artificiale deve ancora essere approvata formalmente dal Consiglio e dal Parlamento. Ciò dovrebbe essere fatto entro la fine dell’anno. La legge non entrerà in vigore prima del 2025. Si tratterà probabilmente della prima legge globale sull’intelligenza artificiale al mondo.

Ultimo articolo