[lid] – Siamo nel dicembre 2022 quando il Consiglio europeo ha adottato la sua posizione comune (“orientamento generale”) relativa alla normativa sull’intelligenza artificiale. Il suo obiettivo è quello di assicurare che i sistemi di intelligenza artificiale (IA) immessi sul mercato dell’UE e utilizzati nell’Unione siano sicuri e rispettino la normativa vigente in materia di diritti fondamentali e i valori dell’Unione.
«L’intelligenza artificiale è di fondamentale importanza per il nostro futuro. Oggi siamo riusciti a raggiungere un delicato equilibrio che stimolerà l’innovazione e l’adozione della tecnologia dell’intelligenza artificiale in tutta Europa. Con tutti i vantaggi che presenta, da un lato, e nel pieno rispetto dei diritti fondamentali dei nostri cittadini, dall’altro», dichiara Ivan Bartoš, vice primo ministro ceco per la Digitalizzazione e ministro dello Sviluppo regionale.
Il progetto di regolamento presentato dalla Commissione nell’aprile 2021 è un elemento chiave della politica dell’UE volta a promuovere lo sviluppo e l’adozione, in tutto il mercato unico, di un’IA sicura e lecita che rispetti i diritti fondamentali.
La proposta segue un approccio basato sul rischio e stabilisce un quadro giuridico orizzontale uniforme per l’IA che mira ad assicurare la certezza del diritto. Promuove gli investimenti e l’innovazione nell’IA, migliora la governance e l’applicazione effettiva della normativa esistente in materia di diritti fondamentali e sicurezza e facilita lo sviluppo di un mercato unico per le applicazioni di IA. Va di pari passo con altre iniziative, compreso il piano coordinato sull’intelligenza artificiale, che mira ad accelerare gli investimenti nell’IA in Europa.
Definizione di un sistema di IA
Per garantire che la definizione di sistema di IA fornisca criteri sufficientemente chiari per distinguere l’IA dai sistemi software più semplici, il testo del Consiglio limita la definizione ai sistemi sviluppati mediante approcci di apprendimento automatico e approcci basati sulla logica e sulla conoscenza.
Pratiche di IA vietate
Per quanto riguarda le pratiche di IA vietate, il testo estende agli attori privati il divieto di utilizzare l’IA per il punteggio sociale. Inoltre, la disposizione che vieta l’uso di sistemi di IA che sfruttano le vulnerabilità di un gruppo specifico di persone contempla ora anche le persone vulnerabili a causa della loro situazione sociale o economica.
Per quanto riguarda il divieto di utilizzare sistemi di identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico da parte delle autorità di contrasto, il testo chiarisce le situazioni nelle quali tale uso è strettamente necessario a fini di contrasto e nelle quali le autorità di contrasto dovrebbero pertanto essere eccezionalmente autorizzate a utilizzare tali sistemi.
Classificazione dei sistemi di IA come ad alto rischio
Per quanto riguarda la classificazione dei sistemi di IA come ad alto rischio, il testo inserisce un livello orizzontale in aggiunta alla classificazione ad alto rischio, al fine di garantire che non siano inclusi i sistemi di IA che non presentano il rischio di causare gravi violazioni dei diritti fondamentali o altri rischi significativi.
Requisiti per i sistemi di IA ad alto rischio
Molti dei requisiti per i sistemi di IA ad alto rischio sono stati chiariti e adeguati in modo tale da renderli tecnicamente più realizzabili e meno onerosi per i portatori di interessi, ad esempio per quanto riguarda la qualità dei dati, o in relazione alla documentazione tecnica che le PMI dovrebbero redigere per dimostrare che i loro sistemi di IA ad alto rischio sono conformi ai requisiti.
Poiché i sistemi di IA sono sviluppati e distribuiti attraverso catene del valore complesse, il testo comprende modifiche che chiariscono l’assegnazione delle responsabilità e dei ruoli dei vari attori in tali catene, in particolare dei fornitori e degli utenti dei sistemi di IA. Chiarisce inoltre il rapporto tra le responsabilità a titolo della normativa sull’IA e le responsabilità già esistenti in virtù di altri atti legislativi, come la pertinente normativa dell’Unione in materia di protezione dei dati o la normativa settoriale, anche per quanto riguarda il settore dei servizi finanziari.
Sistemi di IA per finalità generali
Sono state aggiunte nuove disposizioni per tenere conto delle situazioni in cui i sistemi di IA possono essere utilizzati per molti scopi diversi (IA per finalità generali) e di quelle in cui la tecnologia di IA per finalità generali è successivamente integrata in un altro sistema ad alto rischio.
Il testo specifica che determinati requisiti per i sistemi di IA ad alto rischio si applicherebbero in tali casi anche ai sistemi di IA per finalità generali. Tuttavia, anziché applicare direttamente tali requisiti, un atto di esecuzione specificherebbe come dovrebbero essere applicati in relazione ai sistemi di IA per finalità generali, sulla base di una consultazione e di una valutazione d’impatto dettagliata e tenendo conto delle caratteristiche specifiche di tali sistemi e della relativa catena del valore, della fattibilità tecnica e degli sviluppi tecnologici e di mercato.
Ambito di applicazione e disposizioni relative alle autorità di contrasto
È stato fatto esplicito riferimento all’esclusione delle finalità militari, di difesa e di sicurezza nazionale dall’ambito di applicazione della normativa sull’IA. Analogamente, è stato chiarito che la normativa sull’IA non dovrebbe applicarsi ai sistemi di IA e ai loro output utilizzati esclusivamente a fini di ricerca e sviluppo e agli obblighi delle persone che utilizzano l’IA per scopi non professionali, che non rientrerebbero nell’ambito di applicazione della normativa sull’IA, fatta eccezione per gli obblighi di trasparenza.
Tenuto conto delle specificità delle autorità di contrasto, sono state apportate diverse modifiche alle disposizioni relative all’utilizzo dei sistemi di IA a fini di attività di contrasto. In particolare, fatte salve le tutele adeguate, tali modifiche mirano a tenere conto della necessità di rispettare la riservatezza dei dati operativi sensibili in relazione alle loro attività.
Quadro di conformità e comitato per l’IA
Per semplificare il quadro di conformità della normativa sull’IA, il testo contiene una serie di chiarimenti e semplificazioni delle disposizioni sulle procedure di valutazione della conformità.
Anche le disposizioni relative alla vigilanza del mercato sono state chiarite e semplificare per renderle più efficaci e più facili da attuare. Il testo modifica inoltre in modo sostanziale le disposizioni relative al comitato per l’IA, con l’obiettivo di garantire che abbia una maggiore autonomia e di rafforzare il suo ruolo nell’architettura di governance della normativa sull’IA. Al fine di garantire il coinvolgimento dei portatori di interessi in relazione a tutte le questioni relative all’attuazione della normativa sull’IA, compresa la preparazione degli atti di esecuzione e delegati, è stato aggiunto l’obbligo per il comitato di istituire un sottogruppo permanente che funga da piattaforma per un’ampia gamma di portatori di interessi.
Per quanto riguarda le sanzioni in caso di violazione delle disposizioni della normativa sull’IA, il testo prevede massimali più proporzionati per le sanzioni amministrative pecuniarie per le PMI e le start-up.
Trasparenza e altre disposizioni a favore delle persone interessate
Il testo comprende una serie di modifiche che aumentano la trasparenza per quanto riguarda l’uso dei sistemi di IA ad alto rischio. In particolare, alcune disposizioni sono state aggiornate per indicare che alcuni utenti di un sistema di IA ad alto rischio che sono entità pubbliche saranno anche tenuti a registrarsi nella banca dati dell’UE per i sistemi di IA ad alto rischio.
Inoltre, una nuova disposizione pone l’accento sull’obbligo per gli utenti di un sistema di riconoscimento delle emozioni di informare le persone fisiche quando sono esposte a tale sistema.
Il testo chiarisce inoltre che una persona fisica o giuridica può presentare un reclamo alla pertinente autorità di vigilanza del mercato riguardo alla non conformità alla normativa sull’IA e può aspettarsi che tale reclamo sia trattato in linea con le procedure specifiche di tale autorità.
Misure a sostegno dell’innovazione
Allo scopo di creare un quadro giuridico più favorevole all’innovazione e promuovere un apprendimento normativo basato su dati concreti, le disposizioni relative alle misure a sostegno dell’innovazione sono state sostanzialmente modificate nel testo.
In particolare, è stato chiarito che gli spazi di sperimentazione normativa per l’IA, che dovrebbero creare un ambiente controllato per lo sviluppo, le prove e la convalida di sistemi di IA innovativi, dovrebbero anche consentire di testare sistemi di IA innovativi in condizioni reali.
Inoltre, sono state aggiunte nuove disposizioni che consentono di testare i sistemi di IA in condizioni reali senza controlli, in presenza di condizioni e garanzie specifiche. Al fine di alleggerire gli oneri amministrativi per le imprese più piccole, il testo include un elenco di azioni che dovranno essere intraprese per sostenere tali operatori e prevede alcune deroghe limitate e chiaramente specificate.