CAMERA DEI DEPUTATI
Mercoledì 17 novembre 2021
696.
XVIII LEGISLATURA
BOLLETTINO
DELLE GIUNTE E DELLE COMMISSIONI PARLAMENTARI
Commissioni Riunite (IX e X)
COMUNICATO
Pag. 12

ATTI DELL'UNIONE EUROPEA

  Mercoledì 17 novembre 2021. — Presidenza della presidente della IX Commissione, Raffaella PAITA.

  La seduta comincia alle 13.35.

Proposta di Regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull'intelligenza artificiale (legge sull'intelligenza artificiale) e modifica alcuni atti legislativi dell'Unione.
COM(2021) 206 final e Allegati.
(Esame e rinvio).

  Le Commissioni iniziano l'esame del provvedimento all'ordine del giorno.

  Vincenza BRUNO BOSSIO (PD), relatrice per la IX Commissione, osserva che la proposta di regolamento, di cui le Commissioni riunite avviano oggi l'esame, è stata presentata dalla Commissione europea lo scorso aprile per disciplinare l'immissione sul mercato, la messa in servizio e l'uso dei sistemi di intelligenza artificiale.
  Nella sua relazione, afferma, tratterà dei profili generali della proposta, soffermandosi in particolare sull'insieme dei divieti a una serie di impieghi dell'intelligenza artificiale (IA), nonché su alcuni dei requisiti sostanziali stabiliti dalle disposizioni sui sistemi ritenuti ad alto rischio.
  Prima di passare alla trattazione della proposta di regolamento, desidera segnalare che l'introduzione di norme armonizzate da parte della Commissione europea è stata preceduta da una serie di documenti programmatici, tra i quali il Libro Bianco sull'Intelligenza artificiale – Un approccio europeo all'eccellenza e alla fiducia (COM(2020)65). La IX Commissione Trasporti ha negli ultimi mesi focalizzato l'attenzione sui principali atti europei nel settore del mercato digitale e il 19 maggio scorso ha adottato un documento a conclusione dell'esame di alcune comunicazioni sul futuro digitale e del citato libro bianco di cui è stata relatrice.
  La Commissione europea intende promuovere un approccio europeo coordinato alle implicazioni umane ed etiche dell'intelligenza artificiale basato sui valori europei, al fine di sfruttare le opportunità e affrontare le sfide derivanti dall'IA.
  I sistemi di IA costituiscono un insieme eterogeneo di tecnologie il cui impatto nell'era digitale sull'economia, sulla società, ivi compreso il dibattito pubblico nell'UE, tende ad espandersi progressivamente, abbracciando tutti i settori: competenze, occupazione, Pag. 13 tecnologia finanziaria, istruzione, salute, trasporti, turismo, agricoltura, ambiente, difesa, industria, energia ed e-government.
  Non appare del resto di secondaria importanza l'uso dell'intelligenza artificiale nelle attività di prevenzione e contrasto del crimine, o come ausilio nella giustizia penale, soprattutto grazie alla capacità di rapida elaborazione di significativi volumi di dati, per esempio per la previsione e prevenzione di attacchi terroristici, o in campi già sperimentati come la ricerca di pratiche illegali online.
  D'altra parte si registra una discussione su alcune criticità che possono emergere nell'uso di tali tecnologie. In primo luogo, l'opacità dei processi di elaborazione dei dati, e la conseguente difficoltà di valutare e dimostrare se qualcuno è stato ingiustamente svantaggiato dall'uso di sistemi di IA, ad esempio nel contesto di una decisione di assunzione o di promozione oppure di una domanda di prestazioni pubbliche. In particolare, viene in considerazione il rischio di distorsione da progettazione o da bassa qualità dei dati immessi in un sistema, che può generare effetti discriminanti in particolare nei processi applicati alle dinamiche del mercato del lavoro, al settore del credito, financo ai procedimenti penali, causando ineguaglianze ad esempio sul piano dell'etnia, del genere e dell'età.
  A tal proposito, è opportuno ricordare gli esempi sottolineati dalla Commissione europea in cui si è registrata una sottorappresentazione di alcuni gruppi sociali nel processo di immissione dei dati in sistemi di IA impiegati per ricerche cliniche. In particolare, studi caratterizzati dall'inclusione di un numero maggiore di dati provenienti da uomini hanno condotto a conclusioni errate e conseguenze negative in ordine al trattamento del genere femminile.
  Nello stesso senso, un esempio frequentemente citato dalle istituzioni europee è quello concernente sistemi di intelligenza artificiale utilizzati nella gestione delle risorse umane nel mondo del lavoro che, in base a dati contenenti distorsioni storiche impiegati per adottare una decisione, hanno finito per favorire assunzioni o promozioni maschili rispetto a quelle femminili.
  Vengono in rilievo, inoltre, le criticità individuate per quanto riguarda i sistemi di riconoscimento facciale negli spazi pubblici, i quali, in assenza di una disciplina adeguata, possono dispiegare effetti intrusivi sulla vita privata; al riguardo appare opportuno citare che il Parlamento europeo, in una recente risoluzione, ha segnalato la necessità di sottoporre l'utilizzo dei sistemi di riconoscimento facciale a condizioni rigorose, chiedendo, altresì, un divieto permanente dell'utilizzo dei sistemi di analisi e/o riconoscimento automatici negli spazi pubblici di altre caratteristiche umane quali l'andatura, le impronte digitali, il DNA, la voce e altri segnali biometrici e comportamentali.
  Venendo più dettagliatamente al contenuto della proposta, e rimandando comunque per ulteriori approfondimenti alla documentazione predisposta dagli uffici, la nuova disciplina oltre a fornire una definizione tecnologicamente neutrale di IA introduce una serie di norme armonizzate applicabili alla progettazione, allo sviluppo e all'utilizzo di determinati sistemi di IA ad alto rischio, così come restrizioni in relazione a determinati usi considerati incompatibili con i valori dell'UE.
  L'ambito oggettivo di applicazione è così tracciato stabilendo che il nuovo regime riguarda quei software sviluppati con una o più tecniche che possono, per una determinata serie di obiettivi definiti dall'uomo, generare output quali contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti con cui interagiscono. Tale definizione è integrata dall'allegato I, mediante un elenco dettagliato di approcci e tecniche per lo sviluppo dell'IA che la Commissione può aggiornare mediante atti delegati.
  Al riguardo, segnalo che nella relazione trasmessa al Parlamento ai sensi dell'art. 6, comma 4, della legge n. 234 del 2012, il Governo, nell'ambito delle prospettive negoziali e delle eventuali modifiche ritenute necessarie od opportune, sottolinea in via generale l'elasticità del perimetro di applicazione Pag. 14 del nuovo regime (in quanto modificabile attraverso atti delegati), e la necessità di valutare il rischio di incertezza giuridica e di «delega in bianco» alla Commissione.
  Dal punto di vista soggettivo la nuova disciplina si applica: a) ai fornitori che immettono sul mercato o mettono in servizio sistemi di IA nell'Unione, indipendentemente dal fatto che siano stabiliti nell'Unione o in un Paese terzo; b) agli utenti dei sistemi di IA situati nell'Unione; c) ai fornitori e agli utenti di sistemi di IA situati in un Paese terzo, laddove l'output prodotto dal sistema sia utilizzato nell'Unione.
  La proposta si applica anche ad autorità pubbliche, fatta eccezione per i sistemi di IA sviluppati o usati per scopi esclusivamente militari. Sono altresì esclusi dall'ambito di applicazione le autorità pubbliche in Paesi terzi e le organizzazioni internazionali.
  L'approccio della Commissione europea si basa su una «piramide di rischio» ascendente (che va dal rischio basso/medio a quello elevato, fino al rischio inaccettabile) per classificare, nell'ambito dell'IA, una serie di casi di pratiche generali e di impieghi specifici in determinati settori, implicando che non tutta l'IA comporta dei rischi e che non tutti i rischi sono uguali o richiedono le stesse misure di attenuazione.
  Al vertice della piramide vi sono i rischi inaccettabili, cui sono ricollegati i divieti per una serie di sistemi di IA. Si tratta in sintesi dei sistemi che distorcono il comportamento di una persona attraverso tecniche subliminali o sfruttano vulnerabilità specifiche in modi che causano o sono suscettibili di causare danni fisici o psicologici; sono altresì vietati sistemi di IA che determinano l'attribuzione di un punteggio sociale (social scoring) con finalità generali da parte di autorità pubbliche. Infine, sono parzialmente vietati determinati sistemi di identificazione biometrica remota. In sintesi, l'utilizzo in tempo reale dei sistemi di IA per finalità di contrasto è consentito se riguarda la ricerca mirata di potenziali vittime specifiche di reato, compresi i minori scomparsi; la prevenzione di una minaccia specifica, sostanziale e imminente per la vita o l'incolumità fisica delle persone fisiche o di un attacco terroristico; il rilevamento, la localizzazione, l'identificazione o l'azione penale nei confronti di un autore o un sospettato di un reato contemplato dal regime in materia di mandato d'arresto europeo, punibile nello Stato membro interessato con una pena o una misura di sicurezza privativa della libertà della durata massima di almeno tre anni.
  Sono inclusi in tale categoria di reati, tra l'altro: la partecipazione a un'organizzazione criminale, il terrorismo, la frode e il riciclaggio, il traffico di droga e di armi, la corruzione e la criminalità informatica.
  In ogni caso l'autorizzazione a tale impiego è soggetta a garanzie specifiche. In particolare, ogni singolo uso di un sistema di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a fini di attività di contrasto deve essere subordinato a un'autorizzazione preventiva rilasciata da un'autorità giudiziaria o da un'autorità amministrativa indipendente dello Stato membro in cui deve avvenire l'uso, rilasciata su richiesta motivata e in conformità alle regole dettagliate del diritto nazionale.
  In situazioni di urgenza è possibile iniziare a usare tale sistema senza autorizzazione, purché sia richiesta durante o dopo l'uso. Inoltre, ogni Stato membro stabilisce nel proprio diritto nazionale le necessarie regole dettagliate per la richiesta, il rilascio, l'esercizio delle autorizzazioni, nonché per le attività di controllo ad esse relative.
  Una seconda categoria di sistemi di IA, pur consentiti ma classificati ad alto rischio, deve rispettare un insieme di requisiti specificamente progettati, che comprendono l'utilizzo di set di dati di alta qualità, l'istituzione di una documentazione adeguata per migliorare la tracciabilità, la condivisione di informazioni adeguate con l'utente, la progettazione e l'attuazione di misure adeguate di sorveglianza umana e il conseguimento degli standard più elevati in termini di robustezza, sicurezza, cybersicurezza e precisione.
  Tra le tecnologie di IA ritenute ad alto rischio si annoverano gli impieghi nei seguenti Pag. 15 settori: infrastrutture critiche (ad es. i trasporti) che potrebbero mettere a rischio la vita e la salute dei cittadini; istruzione o formazione professionale, che può condizionare l'accesso all'istruzione e alla vita professionale di una persona (ad es. punteggio degli esami); componenti di sicurezza dei prodotti (ad es. applicazione dell'IA nella chirurgia robotica); occupazione, gestione dei lavoratori e accesso al lavoro autonomo (ad es. software di selezione dei CV per le procedure di assunzione); servizi pubblici e privati essenziali (ad es. sistemi di credito sociale che negano ai cittadini l'opportunità di ottenere un prestito); gestione della migrazione, dell'asilo e del controllo delle frontiere (ad es. verifica dell'autenticità dei documenti di viaggio); amministrazione della giustizia e processi democratici (ad es. applicazione della legge a una serie concreta di fatti); identificazione e categorizzazione biometrica delle persone; attività di contrasto che possono interferire con i diritti fondamentali delle persone (ad es. valutazione dell'affidabilità delle prove).
  La proposta consente alla Commissione europea di ampliare l'elenco dei sistemi di IA ad alto rischio utilizzati all'interno di alcuni settori predefiniti, applicando una serie di criteri e una metodologia di valutazione dei rischi.
  Nello specifico, per tali tipologie di IA è anzitutto previsto l'obbligo di istituire, attuare, documentare e mantenere un sistema di gestione dei rischi, che comprenda le seguenti fasi: identificazione e analisi dei rischi noti e prevedibili associati a ciascun sistema di IA ad alto rischio; stima e valutazione dei rischi che possono emergere quando il sistema di IA ad alto rischio è usato conformemente alla sua finalità prevista e in condizioni di uso improprio ragionevolmente prevedibile; valutazione di altri eventuali rischi derivanti dall'analisi dei dati raccolti dal sistema di monitoraggio successivo all'immissione sul mercato; adozione di adeguate misure di gestione dei rischi.
  Di particolare rilievo la disciplina relativa ai dati e alla rispettiva governance. Come accennato, tale profilo del regolamento è quanto mai necessario considerato che una delle criticità registrate nell'impiego dell'IA può derivare dalla bassa qualità dei dati, la quale può determinare effetti negativi.
  I set di dati immessi nei sistemi di IA devono essere pertinenti, rappresentativi, esenti da errori e completi, e devono possedere le proprietà statistiche appropriate, anche, ove applicabile, per quanto riguarda le persone o i gruppi di persone sui quali il sistema di IA ad alto rischio è destinato a essere usato. Tali dati devono tener conto, nella misura necessaria per la finalità prevista, delle caratteristiche o degli elementi particolari dello specifico contesto geografico, comportamentale o funzionale all'interno del quale il sistema di IA ad alto rischio è destinato a essere usato.
  In questo senso una particolare attenzione deve essere prestata all'equilibrio di genere: i set di dati e i conseguenti algoritmi che li elaborano devono essere corretti anche sotto il profilo della non discriminazione su base di genere ed evitare di riprodurre modelli di analisi stereotipati con la conseguente perpetuazione di reazioni agli stimoli esterni che mantengano aperto il gender gap.
  La proposta prevede infine l'obbligo di redigere la documentazione tecnica di un sistema di IA ad alto rischio prima dell'immissione sul mercato o della messa in servizio di tale sistema, nonché quello di progettare e sviluppare tali sistemi con capacità che consentano la registrazione automatica degli eventi («log») durante il loro funzionamento, secondo standard stabiliti in norme riconosciute o specifiche comuni.
  Un'ultima categoria di sistemi di IA, ritenuti a rischio limitato, sono oggetto di una disciplina minima in materia di trasparenza.
  Questa prevede, in particolare, che i sistemi di IA destinati a interagire con le persone fisiche (al di fuori di quelli utilizzati ai fini di attività di prevenzione e contrasto dei reati) debbano essere progettati e sviluppati in modo tale che le persone fisiche siano informate del fatto di stare interagendo con un sistema di IA, a meno che ciò non risulti evidente dalle circostanze Pag. 16 e dal contesto di utilizzo. Simile obbligo di trasparenza è previsto dalla proposta anche per quanto riguarda i deepfake (sistemi di IA che generano o manipolano immagini o contenuti audio o video che assomigliano notevolmente a persone, oggetti, luoghi o altre entità o eventi esistenti e che potrebbero apparire falsamente autentici o veritieri per una persona), i quali sono tenuti a rendere noto che il contenuto è stato generato o manipolato artificialmente.
  In conclusione, intende sottolineare l'importanza della disciplina all'esame e l'opportunità di un esame delle principali questioni in campo. Nello stesso contesto appare di tutta evidenza la necessità di un iter di approvazione del documento finale nell'ambito del dialogo politico, nei tempi che consentano alla Camera dei deputati di esprimersi prima che in sede europea si addivenga a un testo di compromesso tra le istituzioni legislative dell'UE in vista dell'approvazione della prima lettura.

  Anna Laura ORRICO, relatrice per la X Commissione, espone i contenuti della proposta all'esame riferiti agli aspetti di interesse per la X commissione segnalando, preliminarmente, che la disciplina proposta dalla Commissione europea mira a regolare l'uso di una delle tecnologie più avanzate nel mondo digitale, attualmente impiegata in un insieme vastissimo di settori. L'industria europea sta infatti implementando una vasta gamma di applicazioni di intelligenza artificiale (IA), che migliorano le prestazioni e l'efficienza dei processi attraverso meccanismi come il monitoraggio, l'ottimizzazione e il controllo intelligenti o potenziano la collaborazione uomo-macchina.
  Ricorda infatti, come peraltro anche sottolineato dalla Commissione europea, che l'intelligenza artificiale, garantendo un miglioramento delle previsioni, l'ottimizzazione delle operazioni e dell'assegnazione delle risorse e la personalizzazione delle soluzioni digitali disponibili per i singoli e le organizzazioni, fornisce vantaggi competitivi fondamentali alle imprese. Alcuni settori nell'uso di tale tecnologia sono più avanti rispetto ad altri: ad esempio quello automobilistico, le telecomunicazioni, la sanità. Ulteriori settori in cui si assiste ad un impiego significativo dell'IA sono i servizi finanziari, il settore dei viaggi, dei trasporti e della logistica, l'industria dell'energia.
  Osserva, d'altra parte, che i settori meno maturi digitalmente sono quelli in cui resistono alcune barriere all'adozione dell'IA, ad esempio, laddove si registra una mancanza di competenze o dove vi sono difficoltà nel reperire un capitale di rischio. Ciò vale anche per quelle piccole e medie imprese (PMI) rispetto alle quali gli ostacoli all'adozione dell'IA sono simili a quelli che ostacolano la digitalizzazione in genere.
  Rileva che sono stati altresì messi in evidenza vantaggi per la forza lavoro, sia in termini di miglioramento delle condizioni di sicurezza sia in termini di produttività. Secondo studi del Parlamento europeo si stima che entro il 2035 l'impiego dell'IA possa aumentare la produttività del lavoro in un range dall'11 al 37 per cento. La Commissione europea si è infine spinta a stimare l'impatto economico dell'automazione del lavoro, della conoscenza, e dei robot e dei veicoli autonomi entro il 2025 nel contesto della transizione verde e digitale, ipotizzando la possibilità di un aumento di 60 milioni di posti di lavoro nell'Unione europea.
  Sottolinea che come è stato ampiamente sottolineato la competizione nello sviluppo di capacità significative di IA dipende non solo da fattori economici e tecnologici ma anche da altri fattori, concernenti i settori relativi alla difesa e alla sicurezza. In tal senso la materia dell'IA ha una spiccata dimensione geopolitica, attenendo agli sforzi per rafforzare la posizione competitiva dell'Europa rispetto ai suoi maggiori concorrenti globali nell'IA, ovvero Stati Uniti e Cina. A tal proposito evidenzia che la Commissione europea ritiene prioritario colmare i gap che si registrano in termini di investimenti pubblici e privati nella ricerca e nell'innovazione, considerati in Europa nettamente inferiori a quelli che si riscontrano in altre regioni del mondo. Al riguardo, la Commissione ha stimato nel 2016 investimenti in Europa tra i 2,4 e i 3,2 miliardi di euro nell'IA, rispetto a un range Pag. 17tra 12,1 e 18,6 miliardi in America settentrionale e tra i 6,5 e i 9,7 miliardi in Asia.
  Osserva che in ogni caso appare opportuno che nella disciplina di tale nuova tecnologia si tengano nella debita considerazione i rischi e le criticità che può comportare, come già ricordato dalla relatrice per la IX Commissione.
  Premette che la sua relazione riguarda in primo luogo il regime dei sistemi di IA ad alto rischio, ivi compresi i meccanismi di valutazione di conformità previsti dal nuovo regime. Come accennato l'immissione sul mercato dell'Unione europea di tali tecnologie è consentita a patto che venga rispettata una serie di requisiti, che, tra l'altro, ricomprendono un sistema di gestione di rischi, l'utilizzo di set di dati di alta qualità, una documentazione adeguata per migliorare la tracciabilità, la condivisione di informazioni adeguate con l'utente, la progettazione e l'attuazione di misure adeguate di sorveglianza umana e il conseguimento di standard elevati in termini cibersicurezza.
  Fa presente che la proposta prevede un regime in materia di valutazione della conformità a tali requisiti, che, a seconda del tipo di sistema, si basa o sull'autocontrollo interno da parte del medesimo fornitore oppure sulla verifica da parte di un soggetto terzo, l'organismo cosiddetto notificato, in quanto designato da un'autorità di notifica istituita in ogni Stato membro.
  Nello specifico, evidenzia che i sistemi di IA destinati a essere utilizzati come componenti di sicurezza di prodotti disciplinati in conformità del diritto UE (ad esempio macchine, giocattoli, dispositivi medici, ecc.) sono soggetti agli stessi meccanismi di conformità e applicazione ex ante ed ex post dei prodotti di cui sono un componente. Tali meccanismi devono in ogni caso assicurare la conformità non soltanto ai requisiti stabiliti dalla normativa settoriale, ma anche a quelli previsti dal nuovo regime. La proposta individua due categorie di sistemi di IA ad alto rischio: sistemi di IA destinati ad essere utilizzati come componenti di sicurezza di prodotti soggetti a valutazione della conformità ex ante da parte di terzi; altri sistemi di IA indipendenti (elencati nell'allegato III) che presentano principalmente implicazioni rispetto ai diritti fondamentali.
  Per quanto riguarda i sistemi di IA ad alto rischio indipendenti di cui all'allegato III, segnala che la proposta prevede che la maggior parte di tali tecnologie sia soggetta a una valutazione di conformità basata sul controllo interno; in linea di massima farebbero eccezione, secondo quanto precisato dalla Commissione europea nella relazione introduttiva, i sistemi di identificazione e categorizzazione biometrica delle persone fisiche. Tuttavia il dispositivo del regolamento precisa, anche per queste tecnologie, che il fornitore ha la facoltà di optare tra il processo valutativo da parte di un soggetto terzo e la valutazione di conformità basata sul controllo interno nei casi di utilizzo di standard armonizzati o – se applicabili – specifiche comuni per verificare la conformità ai requisiti per l'IA ad alto rischio.
  Le disposizioni contenute nel Capo 4 disciplinano il regime delle citate autorità di notifica e degli organismi notificati. In particolare, ciascuno Stato membro istituisce un'autorità di notifica, responsabile della predisposizione e dell'esecuzione delle procedure necessarie per la valutazione, la designazione e la notifica degli organismi di valutazione della conformità e per il loro monitoraggio. Gli organismi notificati sono invece i soggetti deputati alla valutazione di conformità dei sistemi di IA ad alto rischio nelle ipotesi in cui il regolamento richieda per tale procedura l'intervento di un soggetto terzo.
  Il regolamento prevede i requisiti necessari per detti organismi, in particolare per quanto riguarda l'indipendenza e la competenza. Ove necessario, la Commissione indaga su tutti i casi in cui vi siano motivi di dubitare della conformità di un organismo notificato ai requisiti richiesti dal regolamento.
  Sottolinea, inoltre, che viene istituito un sistema di governance del regolamento a livello di Unione e nazionale. In particolare si prevede l'istituzione di un comitato europeo per l'intelligenza artificiale, con il Pag. 18compito di facilitare l'attuazione del regolamento e sostenere la cooperazione tra le autorità nazionali di controllo e la Commissione europea, nonché di fornire consulenza e competenze alla Commissione europea e di consentire la condivisione delle migliori pratiche tra gli Stati membri. All'attuazione del nuovo regime concorrono autorità istituite a livello nazionale, tra le quali ciascuno Stato membro deve designare un'autorità nazionale di controllo.
  Ritiene opportuno precisare che l'autorità nazionale di controllo agisce in qualità di autorità di notifica e di autorità di vigilanza del mercato, a meno che uno Stato membro non abbia motivi organizzativi e amministrativi per designare più di un'autorità. Le autorità nazionali competenti devono disporre di risorse finanziarie e umane adeguate per svolgere i loro compiti a norma del regolamento, con particolare riguardo alla comprensione delle tecnologie, dei dati e del calcolo dei dati di intelligenza artificiale, dei diritti fondamentali, dei rischi per la salute e la sicurezza. La Commissione europea ha il compito di agevolare lo scambio di esperienze tra autorità nazionali competenti.
  Osserva che il ruolo delle autorità nazionali include la prestazione di orientamenti e consulenza sull'attuazione del regolamento, anche ai fornitori di piccole dimensioni, eventualmente consultando autorità con competenze diverse laddove sia richiesta l'attuazione di altre norme di settore. Gli Stati membri possono inoltre istituire un punto di contatto centrale per la comunicazione con gli operatori.
  Segnala che nella relazione trasmessa al Parlamento in attuazione della legge n. 234 del 2012, il Governo ha sottolineato la complessità del meccanismo di governance, il quale sposterebbe sulle autorità nazionali una serie di responsabilità e competenze al momento difficilmente rilevabili negli Stati membri. A tal proposito secondo il Governo l'adeguamento potrebbe prevedere ingenti oneri amministrativi e tempi lunghi di attuazione.
  Fa inoltre presente che la proposta prevede altresì la creazione di una banca dati a livello unionale per i sistemi di IA ad alto rischio, gestita dalla Commissione europea e alimentata con i dati messi a disposizione dai fornitori dei sistemi di IA, che raccoglie una serie di elementi identificativi della tecnologia, tra cui la denominazione commerciale, la descrizione della finalità, la certificazione di conformità, e le istruzioni per l'uso in formato elettronico. Sono previsti obblighi in materia di monitoraggio e segnalazione per i fornitori di sistemi di IA, con particolare riguardo a incidenti e malfunzionamenti correlati all'IA.
  La proposta prevede altresì che le autorità di vigilanza del mercato oltre ai poteri già definiti dalla disciplina generale sulla conformità dei prodotti abbiano il potere di indagare in merito al rispetto degli obblighi e dei requisiti per tutti i sistemi di IA ad alto rischio già immessi sul mercato. Nello specifico, se l'autorità di vigilanza del mercato di uno Stato membro ritiene che il sistema di IA presenti un rischio per la salute o la sicurezza delle persone, per la conformità agli obblighi previsti dal diritto dell'Unione o nazionale a tutela dei diritti fondamentali o per altri aspetti della tutela dell'interesse pubblico, essa chiede all'operatore pertinente di adottare tutte le misure adeguate a far sì che il sistema di IA, all'atto della sua immissione sul mercato o messa in servizio, non presenti più tale rischio o che sia, a seconda dei casi, ritirato dal mercato o richiamato entro un termine ragionevole, proporzionato alla natura del rischio.
  Segnala poi che nel contesto delle disposizioni di enforcement del regolamento è previsto infine un sistema di sanzioni che per le violazioni più gravi (come ad esempio in caso di inosservanza del divieto delle pratiche di intelligenza artificiale) contempla sanzioni amministrative pecuniarie fino a 30 milioni di euro o, se l'autore del reato è una società, fino al 6 per cento del fatturato mondiale totale annuo dell'esercizio precedente, se superiore. Per inosservanze ritenute meno gravi le soglie scendono a 20 milioni di euro o al 4 per cento del fatturato. La fornitura di informazioni inesatte, incomplete o fuorvianti agli organismi notificati e alle autorità nazionali Pag. 19competenti è soggetta a sanzioni amministrative pecuniarie fino a 10 milioni o, se l'autore del reato è una società, fino al 2 per cento del fatturato mondiale totale annuo dell'esercizio precedente, se superiore.
  Rileva che la proposta incoraggia, infine, spazi di sperimentazione normativa per l'IA volti a creare un ambiente controllato per sottoporre a prova tecnologie innovative per un periodo di tempo limitato. In tale contesto gli Stati membri sono tenuti a: fornire ai fornitori di piccole dimensioni e alle start-up un accesso prioritario agli spazi di sperimentazione normativa per l'IA nella misura in cui essi soddisfano le condizioni di ammissibilità; organizzare specifiche attività di sensibilizzazione sull'applicazione del regolamento adattate alle esigenze dei fornitori di piccole dimensioni e degli utenti; ove opportuno, istituire un canale dedicato per la comunicazione con i fornitori di piccole dimensioni, gli utenti e altri innovatori, al fine di fornire orientamenti e rispondere alle domande sull'attuazione del regolamento.
  Sottolinea, da ultimo, che nel fissare le tariffe per la valutazione della conformità, la proposta prevede che si debba tener conto degli interessi e delle esigenze specifici dei fornitori di piccole dimensioni, riducendo tali tariffe proporzionalmente alle loro dimensioni e alle dimensioni del loro mercato. Reputa tale disposizione particolarmente opportuna alla luce dell'esigenza di ridurre gli oneri normativi e sostenere le PMI e le start-up.
  Concludendo, ribadisce l'importanza dell'esame della proposta di regolamento sull'intelligenza artificiale, nella prospettiva dell'adozione di un documento finale indirizzato alle istituzioni europee nell'ambito del dialogo politico.
  Infine, considerata la complessità della materia oggetto della proposta di regolamento in titolo, propone di avviare un ciclo di audizioni che raccolga il contributo di soggetti e di realtà del settore esperti sulla materia, a livello nazionale ed europeo, al fine di elaborare un documento finale delle Commissioni riunite, nell'ambito del dialogo politico tra le istituzioni europee, che contemperi le esigenze delle attività economiche con i diritti fondamentali della persona e con i diritti e gli interessi dei consumatori e che sia, comunque, utile ad intervenire nella cosiddetta fase ascendente prima che la suddetta proposta di regolamento venga definitivamente approvata dai legislatori europei.

  Raffaella PAITA, presidente, intervenendo sulla proposta avanzata dalla relatrice Orrico di tenere delle audizioni informali sulla materia del provvedimento, suggerisce, d'accordo con la presidente della Commissione Attività produttive Nardi, di fissare il termine per la presentazione di un numero ristretto e selezionato di richieste di audizione a venerdì 19 alle ore 12.
  In considerazione poi del fatto che la Commissione Attività produttive è convocata alle 14 per l'esame di un decreto-legge, propone di rinviare il seguito del dibattito ad altra seduta.

  Federico MOLLICONE (FDI), intervenendo sull'ordine dei lavori, dichiara che la propria forza politica si unisce alla richiesta di tenere delle audizioni per approfondire la materia del provvedimento.

  Raffaella PAITA, presidente, nessun altro chiedendo di intervenire, rinvia il seguito dell'esame ad altra seduta.

  La seduta termina alle 14.