IA: la Commissione Europea ha accolto con favore l’accordo politico sulla legge
Parlamento europeo e il Consiglio hanno trovato l’accordo sulla legge sull'intelligenza artificiale proposta dalla Commissione nell'aprile 2021
RedazioneDicembre 13, 2023
4 minuti di lettura
3d illustration and concept of international logistics of agreements and international business. Networks and companies around the world.
Condividi
“L’intelligenza artificiale sta già cambiando la nostra vita quotidiana. E questo è solo l’inizio. Utilizzata in modo oculato e diffuso, l’IA promette enormi benefici per la nostra economia e la nostra società. Pertanto, accolgo con grande favore l’accordo politico raggiunto oggi dal Parlamento europeo e dal Consiglio sulla legge sull’intelligenza artificiale. La legge dell’UE sull’IA è il primo quadro giuridico globale in assoluto in materia di intelligenza artificiale a livello mondiale. Si tratta quindi di un momento storico. La legge sull’IA recepisce i valori europei in una nuova era. Concentrando la regolamentazione sui rischi identificabili, l’accordo odierno promuoverà l’innovazione responsabile in Europa. Garantendo la sicurezza e i diritti fondamentali dei cittadini e delle imprese, sosterrà lo sviluppo, la diffusione e l’adozione di un’IA affidabile nell’UE. La nostra legge sull’IA darà un contributo sostanziale allo sviluppo di norme e principi globali per un’IA antropocentrica.” Sono le parole della Presidente Ursula von der Leyen.
Le nuove norme saranno applicate direttamente allo stesso modo in tutti gli Stati membri, sulla base di una definizione di IA a prova di futuro. Seguono un approccio basato sul rischio:
–rischio minimo: la maggioranza dei sistemi di intelligenza artificiale rientra nella categoria del rischio minimo. Le applicazioni a rischio minimo, come i sistemi di raccomandazione abilitati all’intelligenza artificiale o i filtri antispam, beneficeranno di un pass gratuito e dell’assenza di obblighi, poiché questi sistemi presentano solo un rischio minimo o nullo per i diritti o la sicurezza dei cittadini. Su base volontaria, le aziende possono tuttavia impegnarsi ad adottare ulteriori codici di condotta per questi sistemi di IA.
–ad alto rischio: i sistemi di IA identificati come ad alto rischio dovranno rispettare requisiti rigorosi, tra cui sistemi di mitigazione del rischio, alta qualità dei set di dati, registrazione delle attività, documentazione dettagliata, informazioni chiare sugli utenti, supervisione umana e un alto livello di robustezza, accuratezza e sicurezza informatica.
Esempi di tali sistemi di IA ad alto rischio includono alcune infrastrutture critiche, ad esempio nei settori dell’acqua, del gas e dell’elettricità; dispositivi medici; sistemi per determinare l’accesso alle istituzioni educative o per il reclutamento delle persone; o determinati sistemi utilizzati nei settori dell’applicazione della legge, del controllo delle frontiere, dell’amministrazione della giustizia e dei processi democratici. Inoltre, anche i sistemi di identificazione biometrica, categorizzazione e riconoscimento delle emozioni sono considerati ad alto rischio.
–rischio inaccettabile: i sistemi di intelligenza artificiale considerati una chiara minaccia ai diritti fondamentali delle persone saranno vietati. Ciò include sistemi o applicazioni di intelligenza artificiale che manipolano il comportamento umano per eludere il libero arbitrio degli utenti, come giocattoli che utilizzano l’assistenza vocale che incoraggiano comportamenti pericolosi di minori o sistemi che consentono il “punteggio sociale” da parte di governi o aziende e alcune applicazioni di polizia predittiva. Inoltre, saranno vietati alcuni usi dei sistemi biometrici, ad esempio i sistemi di riconoscimento delle emozioni utilizzati sul posto di lavoro e alcuni sistemi per la categorizzazione delle persone o l’identificazione biometrica remota in tempo reale per scopi di contrasto in spazi accessibili al pubblico (con limitate eccezioni).
–rischio specifico per la trasparenza: quando si utilizzano sistemi di intelligenza artificiale come i chatbot, gli utenti dovrebbero essere consapevoli che stanno interagendo con una macchina. I deep fake e altri contenuti generati dall’intelligenza artificiale dovranno essere etichettati come tali e gli utenti dovranno essere informati quando vengono utilizzati sistemi di categorizzazione biometrica o di riconoscimento delle emozioni. Inoltre, i fornitori dovranno progettare sistemi in modo tale che il contenuto sintetico di audio, video, testo e immagini sia contrassegnato in un formato leggibile dalla macchina e rilevabile come generato o manipolato artificialmente.
Le sanzioni
Le aziende che non rispetteranno le regole verranno multate. Le sanzioni potranno variare da 35 milioni di euro o il 7% del fatturato annuo globale (a seconda di quale sia il più alto) per violazioni di applicazioni di IA vietate, 15 milioni di euro o 3% per violazioni di altri obblighi e 7,5 milioni di euro o 1,5% per aver fornito informazioni errate. Sono previsti massimali più proporzionati per le sanzioni amministrative per le PMI e le start-up in caso di violazione della legge sull’AI.
IA per scopi generali
L’AI Act introduce norme dedicate per modelli di IA di carattere generale che garantiranno la trasparenza lungo la catena del valore. Per i modelli molto potenti che potrebbero comportare rischi sistemici, ci saranno ulteriori obblighi vincolanti relativi alla gestione dei rischi e al monitoraggio degli incidenti gravi, all’esecuzione della valutazione del modello e ai test contraddittori. Questi nuovi obblighi saranno resi operativi attraverso codici di buone pratiche sviluppati dall’industria, dalla comunità scientifica, dalla società civile e da altre parti interessate insieme alla Commissione.
In termini di governance, le autorità nazionali competenti in materia di vigilanza del mercato supervisioneranno l’attuazione delle nuove norme a livello nazionale, mentre la creazione di un nuovo Ufficio europeo per l’IA all’interno della Commissione europea garantirà il coordinamento a livello europeo. Il nuovo Ufficio AI supervisionerà inoltre l’attuazione e l’applicazione delle nuove norme sui modelli di IA per scopi generali. Insieme alle autorità nazionali di vigilanza del mercato, l’Ufficio AI sarà il primo organismo a livello globale ad applicare norme vincolanti sull’IA e dovrebbe quindi diventare un punto di riferimento internazionale. Per i modelli di uso generale, un gruppo scientifico di esperti indipendenti svolgerà un ruolo centrale emettendo allerte sui rischi sistemici e contribuendo a classificare e testare i modelli.
Prossimi passi
L’accordo politico è ora soggetto all’approvazione formale del Parlamento europeo e del Consiglio ed entrerà in vigore 20 giorni dopo la pubblicazione nella Gazzetta ufficiale. La legge sull’AI diventerebbe quindi applicabile due anni dopo la sua entrata in vigore, fatta eccezione per alcune disposizioni specifiche: i divieti si applicheranno già dopo 6 mesi mentre le norme sull’IA per scopi generali si applicheranno dopo 12 mesi.
Per superare il periodo transitorio prima che il regolamento diventi generalmente applicabile, la Commissione lancerà un patto sull’intelligenza artificiale. L’evento riunirà sviluppatori di IA provenienti dall’Europa e da tutto il mondo che si impegnano su base volontaria ad attuare gli obblighi chiave della legge sull’AI prima delle scadenze legali.
Per promuovere norme sull’IA affidabile a livello internazionale, l’Unione europea continuerà a lavorare in sedi quali il G7, l’OCSE, il Consiglio d’Europa, il G20 e le Nazioni Unite. Proprio di recente, abbiamo sostenuto l’accordo dei leader del G7 nell’ambito del processo di Hiroshima sull’intelligenza artificiale sui principi guida internazionali e un codice di condotta volontario per i sistemi di intelligenza artificiale avanzati.
AI Commissione Europea legge Parlamento Europeo patto sull’intelligenza artificiale rischi sanzioni Ufficio europeo per l’IA