LA PRESIDENZA DEL CONSIGLIO E DELEGATI DEL PARLAMENTO EUROPEO HANNO SIGLATO UN ACCORDO PROVVISORIO IN MERITO ALLA PROPOSTA DI “LEGGE SULL’INTELLIGENZA ARTIFICIALE”
Carme Artigas, Segretario di Stato spagnolo per la digitalizzazione e l’Intelligenza Artificiale
Dopo una sessione di negoziati intensiva, durata tre giorni, la presidenza del Consiglio e delegati del Parlamento europeo hanno siglato un accordo provvisorio in merito alla proposta di regolamentazione unificata dell’IA, comunemente nota come “Legge sull’Intelligenza Artificiale”.
La proposta della Commissione Europea, presentata nell’aprile 2021, è un elemento chiave della politica dell’UE per promuovere lo sviluppo e l’adozione su tutto il mercato unico di un’IA sicura e legale che rispetti i diritti fondamentali.
La proposta segue un approccio basato sul rischio e stabilisce un quadro giuridico uniforme e orizzontale per l’IA che mira a garantire la certezza giuridica.
Il progetto di regolamento mira a promuovere gli investimenti e l’innovazione nell’IA, migliorare la governance e l’applicazione efficace della legge esistente sui diritti fondamentali e sulla sicurezza e facilitare lo sviluppo di un mercato unico per le applicazioni di IA. Va di pari passo con altre iniziative, tra cui il piano coordinato sull’Intelligenza Artificiale che mira ad accelerare gli investimenti in IA in Europa.
Assicurare che i sistemi di IA siano affidabili, sicuri e rispettosi dei diritti fondamentali e dei valori dell’UE
L’obiettivo primario di questo progetto di regolamento è assicurare che i sistemi di Intelligenza Artificiale introdotti nel mercato europeo e utilizzati nell’Unione Europea siano affidabili, sicuri e rispettosi dei diritti fondamentali e dei valori dell’UE. Questo passo storico mira altresì a promuovere gli investimenti e l’innovazione nel campo dell’IA in Europa.
L’iniziativa legislativa sull’IA è di rilevanza cruciale, poiché ha il potenziale di favorire lo sviluppo e l’adozione di sistemi di IA sicuri e affidabili nel mercato unico dell’UE, coinvolgendo sia attori del settore privato sia pubblico.
La sua essenza risiede nella regolamentazione dell’IA in base al suo potenziale impatto negativo sulla società, adottando un approccio basato sul rischio: maggiore è il rischio, più stringenti sono le regole.
In qualità di prima proposta legislativa di questo genere nel mondo, potrebbe stabilire uno standard globale per la regolamentazione dell’IA anche in altre giurisdizioni.
Così come avvenuto con il GDPR, “General Data Protection Regulation” (Regolamento Generale sulla Protezione dei Dati), per promuovere l’approccio europeo alla regolamentazione tecnologica su scala internazionale.
Gli aspetti chiave dell’accordo provvisorio
Rispetto alla versione iniziale presentata dalla Commissione, le principali aggiunte all’accordo provvisorio possono essere riassunte nei seguenti punti:
- Norme riguardanti i modelli di IA ad alto impatto generale che potrebbero comportare rischi sistemici futuri, insieme ai sistemi di IA ad alto rischio.
- Una governance riveduta con alcune competenze di attuazione a livello dell’UE.
- Estensione dell’elenco delle pratiche proibite, consentendo tuttavia l’uso di identificazione biometrica remota da parte delle forze dell’ordine in spazi pubblici, purché siano presenti adeguate garanzie.
- Una maggiore tutela dei diritti tramite l’obbligo per i gestori di sistemi di IA ad alto rischio di condurre una valutazione dell’impatto sui diritti fondamentali prima di attivare un sistema di IA.
In termini pratici, l’accordo provvisorio copre i seguenti aspetti:
Definizioni e Ambito
Per garantire chiarezza nella definizione di un sistema di IA e distinguere chiaramente l’IA da software meno complesso, l’accordo provvisorio allinea la definizione con l’approccio proposto dall’OCSE. Tale accordo stabilisce, inoltre, che la regolamentazione non si applica a settori al di fuori del diritto dell’UE.
E non influisce sulle competenze degli Stati membri nella sicurezza nazionale o di entità incaricate di compiti in questo settore. L’atto sull’IA non si estende ai sistemi utilizzati esclusivamente per scopi militari o di difesa, né ai sistemi di IA utilizzati solo per ricerca, innovazione o scopi non professionali.
Classificazione dei Sistemi di IA e Pratiche Vietate
L’accordo di compromesso introduce uno strato orizzontale di protezione, compresa la classificazione ad alto rischio, per garantire che i sistemi di IA a rischio limitato siano soggetti a obblighi di trasparenza leggeri. I sistemi di IA ad alto rischio sono consentiti, ma con requisiti specifici per accedere al mercato dell’UE, resi più praticabili e meno onerosi per le parti interessate.
L’accordo chiarisce la suddivisione delle responsabilità e dei ruoli tra i vari attori nelle catene di valore delle IA, in particolare fornitori e utenti. Inoltre stabilisce la relazione tra le responsabilità della legge sull’IA e quelle previste da altre normative, come la protezione dei dati o le normative settoriali pertinenti.
Eccezioni per le Forze dell’Ordine
Riconoscendo le esigenze specifiche delle autorità di polizia, sono state apportate modifiche alla proposta originale riguardo all’uso di sistemi di IA per scopi di applicazione della legge.
Queste modifiche, soggette a garanzie adeguate, sono pensate per preservare la riservatezza dei dati operativi sensibili. Ad esempio, è stata introdotta una procedura di emergenza che consente alle Forze dell’Ordine di utilizzare uno strumento di IA ad alto rischio in caso di urgenza, ma con un meccanismo specifico per garantire la protezione dei diritti fondamentali delle persone da eventuali abusi.
Inoltre, per l’utilizzo di sistemi di identificazione biometrica remota in tempo reale in luoghi pubblici, l’accordo provvisorio chiarisce i casi in cui tale utilizzo è strettamente necessario per scopi di applicazione della legge e impone garanzie aggiuntive, limitando tali eccezioni a specifiche situazioni di minaccia o di ricerca di persone sospettate di reati gravi.
Sistemi di IA a Uso Generale e Modelli Fondamentali
Sono state introdotte nuove disposizioni per situazioni in cui i sistemi di IA sono utilizzati per molteplici scopi. Per esempio i Sistemi di IA a Uso Generale (General Purpose Artificial Intelligence – GPAI) vengono integrati, in seguito, in un altro sistema ad alto rischio.
L’accordo affronta, quindi, i Modelli Fondamentali, definendoli come grandi sistemi in grado di svolgere una vasta gamma di compiti. I modelli fondamentali devono rispettare specifici obblighi di trasparenza prima di essere introdotti sul mercato, con una disciplina più rigorosa per i modelli ad “alto impatto”, caratterizzati da complessità avanzata e prestazioni superiori alla media, che possono comportare rischi sistemici.
Queste modifiche all’accordo provvisorio riflettono l’obiettivo di creare una regolamentazione dell’IA equilibrata, promuovendo l’innovazione e proteggendo al contempo i diritti fondamentali e i valori dell’UE.
Un nuovo modello di governance
In risposta alle recenti disposizioni sulle architetture di IA a uso generale e alla chiara necessità di attuare tali regole a livello dell’UE, emerge l’istituzione di un Ufficio per l’Intelligenza Artificiale all’interno della Commissione Europea.
Questo ufficio è incaricato di supervisionare questi modelli di IA più avanzati, contribuendo a promuovere standard e pratiche di verifica, nonché ad applicare regole uniformi tra gli Stati membri.
Un gruppo di esperti scientifici indipendenti costituirà un panel per consulenze all’Ufficio per l’Intelligenza Artificiale, fornendo contributi sulle metodologie di valutazione delle capacità dei modelli fondamentali, consigliando sul riconoscimento e l’insorgenza di modelli rilevanti ad alto impatto e monitorando potenziali rischi di sicurezza correlati.
Il consiglio direttivo per l’Intelligenza Artificiale, composto da rappresentanti degli Stati membri, manterrà la sua funzione come piattaforma di coordinamento e organo consultivo per la Commissione. Conferisce un ruolo significativo agli Stati membri nell’implementazione delle regolamentazioni, inclusa la formulazione di codici di pratica per i modelli fondamentali. Infine, si prevede la creazione di un forum consultivo per gli stakeholder, quali rappresentanti dell’industria, PMI, start-up, società civile e accademici, che fornisca competenze tecniche al board per l’Intelligenza Artificiale.
Sanzioni
Le sanzioni per le violazioni della legislazione sull’IA sono stabilite come percentuale del fatturato annuo globale dell’azienda trasgressiva nell’anno finanziario precedente o come somma predeterminata, a seconda di quale sia più elevata.
Questo si tradurrebbe in 35milioni di euro o 7% per violazioni di applicazioni di IA vietate, 15milioni di euro o 3% per violazioni degli obblighi della legge sull’IA, e 7,5milioni di euro o 1,5% per la fornitura di informazioni erronee.
Tuttavia, l’accordo provvisorio impone tetti più proporzionati sulle multe amministrative per le PMI e le start-up in caso di violazioni delle disposizioni della legge sull’IA.
L’accordo di compromesso specifica anche che una persona fisica o giuridica può presentare un reclamo all’autorità competente di sorveglianza del mercato, riguardo alla non conformità con la legge sull’IA e può aspettarsi che tale reclamo sia gestito conformemente alle procedure dedicate di tale autorità.
Trasparenza e tutela dei diritti fondamentali
L’accordo provvisorio richiede un’analisi dell’impatto sui diritti fondamentali prima che un sistema di IA ad alto rischio entri sul mercato attraverso i suoi attuatori. Prevede inoltre una maggiore trasparenza sull’utilizzo dei sistemi di IA ad alto rischio.
In particolare, alcune disposizioni della proposta della Commissione sono state modificate per indicare che certi utenti di un sistema di IA ad alto rischio che sono entità pubbliche saranno tenuti a registrarsi nel database dell’UE per i sistemi di IA ad alto rischio.
Inoltre, nuove disposizioni aggiunte mettono l’accento sull’obbligo per gli utenti di un sistema di riconoscimento delle emozioni di informare le persone fisiche quando vengono esposte a un tale sistema.
Misure a sostegno dell’innovazione
Con l’obiettivo di creare un quadro giuridico più favorevole all’innovazione e promuovere l’apprendimento regolatorio basato su prove, le disposizioni riguardanti le misure a sostegno dell’innovazione sono state sostanzialmente modificate rispetto alla proposta della Commissione.
In particolare, è stato chiarito che le sandbox regolamentari sull’IA, destinate a stabilire un ambiente controllato per lo sviluppo, il test e la convalida di sistemi di IA innovativi, dovrebbero anche consentire il test di sistemi di IA innovativi in condizioni simili al mondo reale. Inoltre, sono state aggiunte nuove disposizioni che consentono il test di sistemi di IA in condizioni di mondo reale, con specifiche condizioni e salvaguardie.
Per alleviare l’onere amministrativo per le aziende più piccole, l’accordo provvisorio include un elenco di azioni da intraprendere per sostenere tali operatori e prevede alcune deroghe limitate e chiaramente specificate.
Entrata in vigore
L’accordo provvisorio stabilisce che la “Legge sull’Intelligenza Artificiale” dovrà entrare in vigore due anni dopo la sua adozione, con alcune eccezioni per disposizioni specifiche. Prossimi passi Dopo l’accordo provvisorio raggiunto, i lavori tecnici proseguiranno nelle prossime settimane per finalizzare i dettagli del nuovo regolamento.
La presidenza sottoporrà il testo di compromesso ai rappresentanti degli Stati membri (Coreper) per l’approvazione una volta completati tali lavori. L’intero testo dovrà essere confermato da entrambe le istituzioni e sarà soggetto a una revisione giuridico-linguistica prima dell’adozione formale da parte dei co-legislatori.