CAMERA DEI DEPUTATI
Mercoledì 17 novembre 2021
696.
XVIII LEGISLATURA
BOLLETTINO
DELLE GIUNTE E DELLE COMMISSIONI PARLAMENTARI
Politiche dell'Unione europea (XIV)
COMUNICATO
Pag. 238

SEDE CONSULTIVA

  Mercoledì 17 novembre 2021. — Presidenza del presidente Sergio BATTELLI.

  La seduta comincia alle 14.05.

DL 130/2021: Misure urgenti per il contenimento degli effetti degli aumenti dei prezzi nel settore elettrico e del gas naturale.
C. 3366 Governo, approvato dal Senato.
(Parere alla X Commissione).
(Seguito dell'esame e conclusione – Parere favorevole).

  La Commissione prosegue l'esame del provvedimento in titolo, rinviato nella seduta del 16 novembre 2021.

  Matteo COLANINNO (IV), illustra la proposta di parere favorevole formulata (vedi allegato).

  La Commissione approva.

  La seduta termina alle 14.10.

ATTI DELL'UNIONE EUROPEA

  Mercoledì 17 novembre 2021. — Presidenza del presidente Sergio BATTELLI.

  La seduta comincia alle 14.10.

Proposta di Regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull'intelligenza artificiale (legge sull'intelligenza artificiale) e modifica alcuni atti legislativi dell'Unione.
COM(2021)206 final e allegati.
(Parere alle Commissioni IX e X).
(Esame e rinvio).

  La Commissione inizia l'esame del provvedimento in oggetto.

  Sergio BATTELLI, presidente, in sostituzione della relatrice Grillo, impossibilitata a partecipare alla seduta odierna, ricorda Pag. 239che lo scorso aprile la Commissione ha avviato l'iter legislativo di una proposta di regolamento volta a disciplinare l'immissione sul mercato, la messa in servizio e l'uso dei sistemi di intelligenza artificiale, come follow up di una serie di documenti programmatici (tra i quali il Libro bianco sull'IA) che avevano indicato la strada da seguire per rendere l'uso di questa tecnologia conforme ai valori europei.
  Osserva che l'intelligenza artificiale, intesa come l'abilità di alcuni strumenti di mostrare capacità umane quali il ragionamento, l'apprendimento, la pianificazione e la creatività, ha ormai da anni un ruolo pervasivo nell'economia e nella società globale, tendendo ad espandersi progressivamente a un insieme potenzialmente illimitato di settori.
  Essa consente a determinati sistemi di mettersi in relazione con l'ambiente circostante, e a seguito dell'elaborazione dei dati immessi di offrire soluzioni, raccomandazioni, prendendo autonomamente decisioni o assistendo l'uomo in tale compito con riferimento a uno spettro amplissimo di materie: occupazione, tecnologia finanziaria, istruzione, salute, trasporti, turismo, agricoltura, ambiente, difesa, industria, energia ed e-government.
  Evidenzia come particolare attenzione meriti la menzione dell'impiego dell'intelligenza artificiale nella sicurezza interna, con riferimento ad attività di prevenzione e contrasto del crimine, di ausilio nella giustizia penale, soprattutto grazie alla capacità di rapida elaborazione di significativi volumi di dati; è il caso dell'uso dell'IA per la previsione e prevenzione di attacchi terroristici, o in settori consolidati quali la ricerca di pratiche illegali online.
  Osserva che l'esigenza di regolare l'immissione sul mercato e l'uso dell'IA nasce dalla constatazione dell'insufficienza delle norme generali sulla sicurezza dei prodotti, o ancora dell'impossibilità di applicare adeguatamente norme previste per altri settori specifici a un campo caratterizzato da aspetti problematici peculiari che riguardano interessi vitali per la sfera sia individuale sia collettiva, che spesso si traducono in minacce per la sicurezza, la salute, e in generale sull'area dei diritti fondamentali così come delineati nella Carta europea.
  Le criticità che si sono registrate nell'impiego dell'IA hanno natura estremamente eterogenea: la difficoltà di rendere del tutto trasparenti i processi di elaborazione dei dati, e la conseguente difficoltà di valutare e dimostrare se qualcuno è stato ingiustamente svantaggiato dall'uso di sistemi di IA, ad esempio nel contesto di una decisione di assunzione o di promozione oppure di una domanda di prestazioni pubbliche; il rischio di distorsione da progettazione o da bassa qualità dei dati immessi in un sistema, che può generare effetti discriminanti in particolare nei processi applicati alle dinamiche del mercato del lavoro, al settore del credito, financo ai procedimenti penali, causando ineguaglianze ad esempio sul piano dell'etnia, del genere, e dell'età. Non sono meno importanti le implicazioni generate dall'uso di sistemi di riconoscimento facciale negli spazi pubblici, per i quali da più parti si è indicata la necessità di una disciplina che contemperi le esigenze di contrasto al crimine (o di tutela di vittime o potenziali), con la tutela da intrusioni nella vita privata. È una materia, quest'ultima, sulla quale si registra da tempo un dibattito, rispetto al quale segnala che il Parlamento europeo, in una recente risoluzione, ha sottolineato la necessità di sottoporre l'utilizzo dei sistemi di riconoscimento facciale a condizioni rigorose.
  Venendo più in dettaglio al contenuto della proposta, e rimandando comunque per ulteriori approfondimenti alla documentazione predisposta dagli uffici, sottolinea che la nuova disciplina oltre a fornire una definizione tecnologicamente neutrale di IA, che nelle intenzioni della Commissione dovrebbe essere in grado di stare al passo dello sviluppo di nuovi approcci e tecniche, introduce una serie di norme armonizzate applicabili alla progettazione, allo sviluppo e all'utilizzo di determinati sistemi di IA ad alto rischio, così come restrizioni in relazione a determinati usi considerati incompatibili con i valori dell'UE.
  In particolare, la proposta definisce l'IA come l'insieme dei software sviluppati con Pag. 240una o più tecniche in grado di generare output sotto forma di contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti con cui interagiscono, integrando il concetto con un elenco dettagliato di approcci e tecniche, passibile di aggiornamento tramite atti delegati della Commissione europea. Tale facoltà potrebbe costituire materia di approfondimento, sia in ordine al grado di precisione con cui è definito l'ambito oggettivo di applicazione della disciplina, sia soprattutto per i profili di incertezza che possono discendere da una delega così ampia conferita all'Esecutivo europeo.
  I principali destinatari del nuovo regime sono i fornitori e gli utenti dei sistemi di IA, sebbene norme specifiche riguardino altri soggetti della filiera, quali distributori e importatori; la Commissione europea ha proposto l'esclusione dal perimetro delle norme dell'IA usata per scopi esclusivamente militari, nonché di autorità pubbliche in Paesi terzi e organizzazioni internazionali.
  Secondo un approccio basato sul rischio, la proposta classifica, nell'ambito delle tecnologie di IA, una serie di casi di pratiche generali e di impieghi specifici in determinati settori, cui sono ricollegate misure di attenuazione della minaccia, o addirittura i divieti di alcuni impieghi.
  La previsione dei divieti riguarda una serie limitata di utilizzi dell'IA ritenuti incompatibili con i valori e i diritti fondamentali dell'Unione europea.
  Fa presente che più nel dettaglio, vengono in considerazione: i sistemi di IA che distorcono il comportamento di una persona attraverso tecniche subliminali o sfruttando vulnerabilità specifiche in modi che causano o sono suscettibili di causare danni fisici o psicologici; divieti concernenti l'attribuzione di un punteggio sociale (social scoring) con finalità generali mediante sistemi di IA da parte di autorità pubbliche; sistemi di identificazione biometrica remota «in tempo reale» in spazi accessibili al pubblico a fini di attività di contrasto, a meno che e nella misura in cui tale uso sia strettamente necessario per un limitato numero di obiettivi in materia di sicurezza, in ogni caso soggetti a garanzie specifiche.
  Al di fuori del regime dei divieti, gran parte della proposta è dedicata a un insieme di sistemi di IA in grado di creare un rischio alto per la salute e la sicurezza o per i diritti fondamentali delle persone fisiche; tali tecnologie sono consentite a condizione che rispettino una serie di requisiti e siano oggetto di una valutazione di conformità ex ante. Rientrano in tale ambito sistemi di IA destinati ad essere utilizzati come componenti di sicurezza di prodotti soggetti a valutazione della conformità ex ante da parte di terzi; altri sistemi di IA indipendenti che presentano principalmente implicazioni rispetto ai diritti fondamentali. Sono annoverati in tale gruppo impieghi concernenti ambiti strategici quali infrastrutture critiche; istruzione o formazione professionale; servizi pubblici e privati essenziali; gestione della migrazione, dell'asilo e del controllo delle frontiere; amministrazione della giustizia e processi democratici; identificazione e categorizzazione biometrica delle persone; attività di contrasto al crimine. La proposta prevede in questi casi l'obbligo per i fornitori di istituire un sistema di gestione dei rischi, che include tra l'altro: un'adeguata progettazione e fabbricazione; misure di attenuazione e di controllo in relazione ai rischi che non possono essere eliminati; la fornitura di informazioni adeguate e, ove opportuno, la formazione degli utenti. Tra le prescrizioni chiave del provvedimento quelle relative alla qualità dei dati immessi nei sistemi di IA, per evitare che la macchina adotti decisioni distorte a causa dell'inappropriatezza dei dati processati.
  Segnala che per i sistemi di IA ad alto rischio la nuova disciplina prescrive meccanismi di valutazione di conformità dei sistemi di IA ad alto rischio ai requisiti stabiliti nel regolamento, che in linea di principio si articolano in sistemi di controllo interno gestiti direttamente dai fornitori, oppure in procedure in cui è coinvolto un soggetto terzo designato a livello nazionale dall'autorità pubblica.
  Ricorda infine che vi è un gruppo di sistemi di IA considerati a basso rischio per Pag. 241i quali la Commissione europea ha previsto esclusivamente requisiti minimi di trasparenza: è il caso di chatbot (programmi in grado di simulare conversazioni umane), sistemi di riconoscimento delle emozioni o «deep fake» (foto, video e audio creati grazie a software di intelligenza artificiale che, partendo da contenuti reali, riescono a modificare o ricreare, in modo estremamente realistico, le caratteristiche e i movimenti di un volto o di un corpo e a imitare fedelmente una determinata voce).
  Sottolinea che la proposta include sistemi di governance a livello di Unione e nazionale. In particolare, a livello di Unione, è previsto un comitato europeo per l'intelligenza artificiale, costituito da rappresentanti degli Stati membri e della Commissione, con il compito di facilitare l'attuazione del regolamento e la cooperazione tra le autorità nazionali di controllo e la condivisione di migliori pratiche tra gli Stati membri.
  A livello nazionale, gli Stati membri istituiscono una o più autorità competenti e, tra queste, l'autorità nazionale di controllo, al fine di controllare l'applicazione e l'attuazione del regolamento.
  Rileva che sono previsti obblighi in materia di monitoraggio e segnalazione per i fornitori di sistemi di IA per quanto riguarda il monitoraggio successivo all'immissione sul mercato e la segnalazione di incidenti e malfunzionamenti correlati all'IA nonché le indagini in merito.
  Segnala che è previsto un sistema di sanzioni che per le violazioni più gravi del regolamento stabilisce sanzioni amministrative pecuniarie fino a 30 milioni di euro o, se l'autore del reato è una società, fino al 6 per cento del fatturato mondiale totale annuo dell'esercizio precedente, se superiore. Da ultimo il nuovo regime include norme a sostegno dell'innovazione, in particolare, incoraggiando le autorità nazionali competenti a creare spazi di sperimentazione normativa, prevedendo tra l'altro misure per ridurre gli oneri normativi per le PMI e le start-up.
  Sottolinea infine che la Commissione europea ha optato per il regolamento, ovverosia lo strumento più efficace in termini di armonizzazione normativa, considerando che il formarsi di un mosaico di regole nazionali potenzialmente divergenti potrebbe ostacolare la circolazione senza soluzione di continuità di prodotti e servizi collegati ai sistemi di IA in tutta l'UE e potrebbe dimostrarsi inefficace nel garantire la sicurezza e la protezione dei diritti fondamentali e dei valori dell'Unione nei diversi Stati membri. In tal senso la Commissione europea ha altresì precisato che l'eventuale frammentazione del mercato unico in quadri nazionali potenzialmente contraddittori potrebbe impedire la libera circolazione di beni e servizi in cui è integrata l'IA. Tali argomentazioni sono state adottate per dimostrare il rispetto del principio di sussidiarietà che presiede alle materie in cui l'UE esercita una competenza non esclusiva.
  In conclusione, nel sottolineare l'importanza della proposta di regolamento in esame, segnala l'opportunità che il Parlamento esprima un orientamento nell'ambito del dialogo politico, tenuto conto del fatto che la disciplina in discussione ha ad oggetto questioni di particolare rilevanza e attualità.

  Emanuela ROSSINI (MISTO-MIN.LING.) sottolinea che quello in esame costituisce uno dei provvedimenti più importanti al vaglio delle istituzioni europee e ricorda che il tema dell'intelligenza artificiale è stato menzionato anche nell'ambito del G20 come una delle aree su cui l'Europa deve acquisire e tutelare una posizione di autonomia strategica.
  Rileva che nell'attuale fase preliminare di esame del documento è già possibile individuare alcune questioni che saranno presumibilmente oggetto di negoziazione e di mediazione tra i Paesi europei. Due questioni importanti riguardano, in particolare, il perimetro di applicazione e la definizione dei termini chiave da adottare nell'ambito della disciplina da applicare al grappolo di tecnologie legate al concetto di intelligenza artificiale. Su entrambi tali aspetti l'attuale presidenza slovena della UE si sta già adoperando per trovare una mediazione tra le posizioni dei diversi Paesi europei. Pag. 242
  Sottolinea in proposito l'opportunità di un esame approfondito, anche attraverso lo svolgimento di un ciclo di audizioni, per individuare i possibili rischi legati all'uso dell'intelligenza artificiale, di cui è opportuno si tenga conto nell'ambito della relativa regolamentazione europea. Osserva infatti che l'utilizzo di tali tecnologie è destinato a divenire pervasivo con la diffusione dei computer quantistici che cambieranno radicalmente le capacità di previsione di qualunque fenomeno, incidendo conseguentemente in modo radicale anche sui processi decisionali.
  Ricorda infine che sul territorio italiano, in particolare nella Regione del Trentino-Alto Adige, sono presenti eccellenze nel settore dell'intelligenza artificiale. Nel ribadire quindi l'opportunità di un approfondimento delle questioni oggetto della nuova disciplina europea, rileva l'opportunità di pervenire alla formulazione di un parere incisivo, al fine di prevenire il rischio di eventuali interferenze dell'uso delle tecnologie legate all'intelligenza artificiale rispetto ai diritti individuali e sociali affermati dalla legislazione europea.

  Sergio BATTELLI, presidente, segnala che le modalità per il prosieguo dell'esame dell'atto potranno essere valutate anche alla luce dell'iter presso le Commissioni di merito.
  Nessun altro chiedendo di intervenire, rinvia quindi il seguito dell'esame ad altra seduta.

  La seduta termina alle 14.20.