di Antonino Giannone^
Pubblichiamo la prima intesa politica raggiunta dal Consiglio e Parlamento dell’Unione Europea sulla Legge sull’Intelligenza Artificiale (IA), definita in un accordo sulle prime regole per l’IA nel mondo. In data 8/12, dopo 3 giorni d’intenso lavoro, la Presidenza del Consiglio e i negoziatori del Parlamento europeo hanno raggiunto un accordo provvisorio sulla proposta di norme armonizzate sulla cosiddetta legge sull’IA (Fonte: Consiglio dell’UE- Comunicato stampa del 09/12/23 https://www.consilium.europa.eu/)
Si tratta di un accordo politico per un progetto di regolamento che mira a garantire che i sistemi di IA immessi sul mercato europeo e utilizzati nell’UE siano sicuri e rispettino i diritti fondamentali e i valori dell’UE. Questa proposta mira anche a stimolare gli investimenti e l’innovazione sull’intelligenza artificiale in Europa. Carme Artigas, segretario di Stato spagnolo per la digitalizzazione e l’intelligenza artificiale ha così commentato: L’accordo politico affronta in un modo efficace una sfida globale in un ambiente tecnologico in rapida evoluzione in un settore chiave per il futuro delle nostre società ed economie. E in questo sforzo siamo riusciti a mantenere un equilibrio estremamente delicato: promuovere l’innovazione e l’adozione dell’intelligenza artificiale in tutta Europa, nel pieno rispetto dei diritti fondamentali dei nostri cittadini. La legge sull’IA è un’iniziativa legislativa di riferimento che ha il potenziale per promuovere lo sviluppo e l’adozione di un’intelligenza artificiale sicura e affidabile nel mercato unico dell’UE da parte di attori sia privati che pubblici. L’idea principale è quella di regolamentare l’IA in base alla capacità di quest’ultima di causare danni alla società seguendo un approccio “basato sul rischio”: maggiore è il rischio, più severe sono le regole. Si tratta della prima proposta legislativa di questo tipo al mondo, che può stabilire uno standard globale per la regolamentazione dell’IA in altre giurisdizioni, proprio come ha fatto il GDPR (General Data Protection Regulation) promuovendo così l’approccio europeo alla regolamentazione tecnologica sulla scena mondiale
Gli elementi principali dell’accordo provvisorio possono essere così riassunti:
-Norme sui modelli di IA di carattere generale ad alto impatto che possono causare rischi sistemici in futuro, nonché sui sistemi di IA ad alto rischio
-Un sistema di governance rivisto con alcuni poteri esecutivi a livello dell’UE
-Estensione dell’elenco dei divieti ma con la possibilità di utilizzare l’identificazione biometrica a distanza da parte delle forze dell’ordine negli spazi pubblici, fatte salve le garanzie
-Una migliore tutela dei diritti attraverso l’obbligo per gli utilizzatori di sistemi di IA ad alto rischio di effettuare una valutazione d’impatto sui diritti fondamentali prima di mettere in uso un sistema di IA.
Più in dettaglio, l’accordo provvisorio riguarda i seguenti aspetti:
Definizioni e ambito di applicazione (Definitions and scope)
Per garantire che la definizione di sistema di IA fornisca criteri sufficientemente chiari per distinguere l’IA dai sistemi software più semplici, l’accordo di compromesso allinea la definizione all’approccio proposto dall’OCSE. L’accordo provvisorio chiarisce che il regolamento non si applica ad ambiti esterni all’ambito di applicazione del diritto comunitario e non dovrebbe, in ogni caso, pregiudicare le competenze degli Stati membri in materia di sicurezza nazionale o di qualsiasi entità a cui siano affidati compiti in tale ambito. Inoltre la legge sull’IA non si applica ai sistemi utilizzati esclusivamente per scopi militari o di difesa. Allo stesso modo, l’accordo prevede che il regolamento non si applichi ai sistemi di IA utilizzati per soli fini di ricerca e innovazione, o a persone che utilizzano l’IA per motivi non professionali.
Classificazione dei sistemi di IA come pratiche di IA ad alto rischio e vietate (Classification of AI systems as high-risk and prohibited AI practices)
L’accordo di compromesso prevede un livello orizzontale di protezione, inclusa una classificazione ad alto rischio, per garantire che i sistemi di IA che non potrebbero causare gravi violazioni dei diritti fondamentali o altri rischi significativi non vengano catturati. I sistemi di IA che presentano solo rischi limitati sarebbero soggetti a obblighi di trasparenza molto leggeri, ad esempio rivelando che il contenuto è stato generato dall’IA in modo che gli utenti possano prendere decisioni informate sull’ulteriore utilizzo. Verrebbe autorizzata un’ampia gamma di sistemi di IA ad alto rischio, ma soggetti a una serie di requisiti e obblighi per ottenere l’accesso al mercato dell’UE. Questi requisiti sono stati chiariti e adeguati dai co-legislatori in modo tale da renderli più tecnicamente fattibili e meno onerosi da rispettare per le parti interessate, ad esempio per quanto riguarda la qualità dei dati o in relazione alla documentazione tecnica che dovrebbe essere elaborati dalle PMI per dimostrare che i loro sistemi di IA ad alto rischio sono conformi ai requisiti. Poiché i sistemi di IA sono sviluppati e distribuiti attraverso catene del valore complesse, l’accordo di compromesso comprende modifiche che chiariscono l’assegnazione delle responsabilità e dei ruoli dei vari attori in tali catene, in particolare dei fornitori e degli utenti dei sistemi di IA. Chiarisce inoltre il rapporto tra le responsabilità ai sensi della legge sull’AI e le responsabilità già esistenti ai sensi di altre normative, come la pertinente protezione dei dati dell’UE o la legislazione settoriale. Per alcuni usi dell’IA, il rischio è ritenuto inaccettabile e, pertanto, questi sistemi saranno banditi dall’UE. L’accordo provvisorio vieta, ad esempio, la manipolazione cognitivo comportamentale, la cancellazione non mirata di immagini facciali da Internet o da filmati di telecamere a circuito chiuso, il riconoscimento delle emozioni sul posto di lavoro e nelle scuole, il social scoring, la categorizzazione biometrica per dedurre dati sensibili, come l’orientamento sessuale o religioso. convinzioni personali e alcuni casi di polizia predittiva per gli individui.
Eccezioni delle forze dell’ordine (Law enforcement exceptions)
Considerando le specificità delle autorità di contrasto e la necessità di preservare la loro capacità di utilizzare l’intelligenza artificiale nel loro lavoro fondamentale, sono state concordate diverse modifiche alla proposta della Commissione relative all’uso dei sistemi di IA a fini di contrasto. Fatte salve adeguate garanzie, questi cambiamenti intendono riflettere la necessità di rispettare la riservatezza dei dati operativi sensibili in relazione alle loro attività. Ad esempio, è stata introdotta una procedura di emergenza che consente alle forze dell’ordine di utilizzare uno strumento di IA ad alto rischio che non ha superato la procedura di valutazione della conformità in caso di urgenza. Tuttavia, è stato introdotto anche un meccanismo specifico per garantire che i diritti fondamentali siano sufficientemente tutelati da eventuali abusi dei sistemi di IA. Inoltre, per quanto riguarda l’uso di sistemi di identificazione biometrica a distanza in tempo reale negli spazi accessibili al pubblico, l’accordo provvisorio chiarisce gli obiettivi in cui tale uso è strettamente necessario per scopi di contrasto e per i quali le autorità di contrasto dovrebbero essere eccezionalmente autorizzate a utilizzare tali sistemi. L’accordo di compromesso prevede garanzie aggiuntive e limita tali eccezioni ai casi di vittime di determinati reati, alla prevenzione di minacce reali, presenti o prevedibili, come gli attacchi terroristici, e alla ricerca di persone sospettate dei crimini più gravi.
Sistemi di intelligenza artificiale per scopi generali e modelli di base (General purpose AI systems and foundation models)
Sono state aggiunte nuove disposizioni per tenere conto delle situazioni in cui i sistemi di IA possono essere utilizzati per molti scopi diversi (IA per scopi generali) e in cui la tecnologia di IA per scopi generali viene successivamente integrata in un altro sistema ad alto rischio. L’accordo provvisorio affronta anche i casi specifici dei sistemi di IA per scopi generali (GPAI).
Sono state concordate regole specifiche anche per i modelli di fondazione, grandi sistemi in grado di eseguire con competenza un’ampia gamma di compiti distintivi, come generare video, testi, immagini, conversare in linguaggio laterale, elaborare calcoli o generare codici informatici. L’accordo provvisorio prevede che i modelli di fondazione debbano rispettare specifici obblighi di trasparenza prima di essere immessi sul mercato. È stato introdotto un regime più severo per i modelli di fondazione “ad alto impatto”. Si tratta di modelli di base addestrati con grandi quantità di dati e con complessità avanzata, capacità e prestazioni ben al di sopra della media, che possono diffondere rischi sistemici lungo la catena del valore.
Una nuova architettura di governance (A new governance architecture)
A seguito delle nuove norme sui modelli GPAI e dell’evidente necessità di una loro applicazione a livello dell’UE, è stato istituito un ufficio IA all’interno della Commissione con il compito di supervisionare questi modelli IA più avanzati, contribuire a promuovere standard e pratiche di test e far rispettare le regole comuni in tutti gli Stati membri. Un gruppo scientifico di esperti indipendenti consiglierà l’Ufficio AI sui modelli GPAI (Global Partnership Artificial Intelligence), contribuendo allo sviluppo di metodologie per la valutazione delle capacità dei modelli di fondazione, fornendo consulenza sulla designazione e sull’emergere di modelli di fondazione ad alto impatto e monitorando possibili rischi per la sicurezza materiale legati ai modelli di fondazione. Il comitato AI, che comprenderebbe i rappresentanti degli Stati membri, resterà una piattaforma di coordinamento e un organo consultivo per la Commissione e attribuirà un ruolo importante agli Stati membri nell’attuazione del regolamento, compresa la progettazione di codici di condotta per le fondazioni Modelli. Infine, sarà istituito un forum consultivo per le parti interessate, come rappresentanti dell’industria, PMI, start-up, società civile e mondo accademico, per fornire competenze tecniche al comitato per l’IA.
Sanzioni (Penalties)
Le sanzioni per le violazioni della legge sull’AI sono state fissate in percentuale del fatturato annuo globale della società incriminata nell’anno finanziario precedente o in un importo predeterminato, a seconda di quale sia il più elevato. Questo ammonterebbe a 35 milioni di euro o il 7% per violazioni delle applicazioni IA vietate, 15 milioni di euro o il 3% per violazioni degli obblighi della legge sull’IA e 7,5 milioni di euro o 1,5% per la fornitura di informazioni errate. Tuttavia, l’accordo provvisorio prevede massimali più proporzionati alle sanzioni amministrative per le PMI e le start-up in caso di violazione delle disposizioni della legge sull’AI. L’accordo di compromesso chiarisce inoltre che una persona fisica o giuridica può presentare un reclamo all’autorità di vigilanza del mercato competente in merito al mancato rispetto della legge sull’IA e può aspettarsi che tale reclamo venga gestito in linea con le procedure dedicate di tale autorità.
https://encrypted-tbn0.gstatic.com/images?q=tbn:ANd9GcQAHrW0WD7YmKMSv_V7HYKnRymMAvKD-wW1cR5wQyWLsQ&s
Trasparenza e tutela dei diritti fondamentali (Transparency and protection of fundamental rights)
L’accordo provvisorio prevede una valutazione d’impatto sui diritti fondamentali prima che un sistema di IA ad alto rischio venga immesso sul mercato dai suoi utilizzatori. L’accordo provvisorio prevede inoltre una maggiore trasparenza riguardo all’uso di sistemi di IA ad alto rischio. In particolare, alcune disposizioni della proposta della Commissione sono state modificate per indicare che anche alcuni utenti di un sistema di IA ad alto rischio che sono enti pubblici saranno obbligati a registrarsi nella banca dati dell’UE per i sistemi di IA ad alto rischio. Inoltre, le nuove disposizioni aggiunte pongono l’accento sull’obbligo per gli utenti di un sistema di riconoscimento delle emozioni di informare le persone fisiche quando sono esposte a tale sistema.
Misure a sostegno dell’innovazione (Measures in support of innovation)
Nell’ottica di creare un quadro giuridico più favorevole all’innovazione e di promuovere l’apprendimento normativo basato su dati concreti, le disposizioni relative alle misure a sostegno dell’innovazione sono state sostanzialmente modificate rispetto alla proposta della Commissione. In particolare, è stato chiarito che i sandbox normativi sull’IA, che dovrebbero stabilire un ambiente controllato per lo sviluppo, il test e la convalida di sistemi di IA innovativi, dovrebbero anche consentire la sperimentazione di sistemi di IA innovativi in condizioni reali. Inoltre, sono state aggiunte nuove disposizioni che consentono di testare i sistemi di intelligenza artificiale in condizioni reali, in condizioni e garanzie specifiche. Per alleviare gli oneri amministrativi per le imprese più piccole, l’accordo provvisorio comprende un elenco di azioni da intraprendere a sostegno di tali operatori e prevede alcune deroghe limitate e chiaramente specificate.
Entrata in vigore (Entry into force)
L’accordo provvisorio prevede che la legge sull’AI si applichi due anni dopo la sua entrata in vigore, con alcune eccezioni per disposizioni specifiche.
Prossimi passi: A seguito dell’accordo provvisorio di oggi, nelle prossime settimane proseguiranno i lavori a livello tecnico per finalizzare i dettagli del nuovo regolamento. La presidenza sottoporrà il testo di compromesso ai rappresentanti degli Stati membri (Coreper) per approvazione una volta conclusi i lavori.
L’intero testo dovrà essere confermato da entrambe le istituzioni e sottoposto a revisione giuridico-linguistica prima dell’adozione formale da parte dei co-legislatori.
^ Docente di Leadership and Ethics c/o ICELAB Politecnico di Torino- Comitato Scientifico A.N.I.M.