XIX Legislatura

X Commissione

Resoconto stenografico



Seduta n. 12 di Mercoledì 7 febbraio 2024

INDICE

Sulla pubblicità dei lavori:
Cavo Ilaria , Presidente ... 3 

INDAGINE CONOSCITIVA SULL'INTELLIGENZA ARTIFICIALE: OPPORTUNITÀ E RISCHI PER IL SISTEMA PRODUTTIVO ITALIANO

Audizione, in videoconferenza, di Brando Benifei membro della Commissione per il mercato interno e la protezione dei consumatori del Parlamento europeo.
Cavo Ilaria , Presidente ... 3 
Benifei Brando , membro della Commissione per il mercato interno e la protezione dei consumatori del Parlamento europeo (intervento in videoconferenza) ... 3 
Cavo Ilaria , Presidente ... 6 
Di Sanzo Christian Diego (PD-IDP)  ... 6 
Cavo Ilaria , Presidente ... 6 
Benifei Brando , membro della Commissione per il mercato interno e la protezione dei consumatori del Parlamento europeo (intervento in videoconferenza) ... 7 
Cavo Ilaria , Presidente ... 9 

Audizione di rappresentanti del Consiglio Nazionale delle Ricerche CNR:
Cavo Ilaria , Presidente ... 9 
De Pietro Giuseppe , direttore dell'Istituto di calcolo e reti ad alte prestazioni del Consiglio Nazionale delle Ricerche (CNR) ... 9 
Cavo Ilaria , Presidente ... 11 
De Pietro Giuseppe , direttore dell'Istituto di calcolo e reti ad alte prestazioni del Consiglio Nazionale delle Ricerche (CNR) ... 11 
Cavo Ilaria , Presidente ... 11 

Audizione, in videoconferenza, di Antonio Perrucci, direttore del Laboratorio sull'ecosistema digitale di ASTRID:
Cavo Ilaria , Presidente ... 11 
Perrucci Antonio , direttore del Laboratorio sull'ecosistema digitale di ASTRID (intervento in videoconferenza) ... 11 
Cavo Ilaria , Presidente ... 14 
Perrucci Antonio , direttore del Laboratorio sull'ecosistema digitale di ASTRID (intervento in videoconferenza) ... 14 
Cavo Ilaria , Presidente ... 14 

Audizione di rappresentanti del Garante per la protezione dei dati personali:
Gusmeroli Alberto Luigi , Presidente ... 14 
Stanzione Pasquale , presidente dell'Autorità Garante per la protezione dei dati personali ... 14 
Gusmeroli Alberto Luigi , Presidente ... 16 

Audizione di rappresentanti di Associazione nazionale industrie cinematografiche audiovisive e digitali ANICA:
Gusmeroli Alberto Luigi , Presidente ... 17 
Rutelli Francesco , presidente di Associazione nazionale industrie cinematografiche audiovisive e digitali ANICA ... 17 
Gusmeroli Alberto Luigi , Presidente ... 19 
Cavo Ilaria (NM(N-C-U-I)-M)  ... 19 
Gusmeroli Alberto Luigi , Presidente ... 20 
Rutelli Francesco , presidente di Associazione nazionale industrie cinematografiche audiovisive e digitali ANICA ... 20 
Gusmeroli Alberto Luigi , Presidente ... 21 

Audizione di rappresentanti di Hewlett Packard Enterprise:
Gusmeroli Alberto Luigi , Presidente ... 21 
Fabriani Marco , direttore pubblica amministrazione media di Hewlett Packard Enterprise ... 22 
Gusmeroli Alberto Luigi , Presidente ... 24 

Audizione di Paolo Marzano, docente di diritto della proprietà intellettuale presso il dipartimento di giurisprudenza della Luiss Guido Carli di Roma:
Gusmeroli Alberto Luigi , Presidente ... 24 
Marzano Paolo , docente di diritto della proprietà intellettuale presso il dipartimento di giurisprudenza della Luiss Guido Carli di Roma ... 24 
Gusmeroli Alberto Luigi , Presidente ... 26 
Marzano Paolo , docente di diritto della proprietà intellettuale presso il dipartimento di giurisprudenza della Luiss Guido Carli di Roma ... 26 
Gusmeroli Alberto Luigi , Presidente ... 26 
Marzano Paolo , docente di diritto della proprietà intellettuale presso il dipartimento di giurisprudenza della Luiss Guido Carli di Roma ... 26 
Gusmeroli Alberto Luigi , Presidente ... 26 
Marzano Paolo , docente di diritto della proprietà intellettuale presso il dipartimento di giurisprudenza della Luiss Guido Carli di Roma ... 26 
Gusmeroli Alberto Luigi , Presidente ... 26 
Marzano Paolo , docente di diritto della proprietà intellettuale presso il dipartimento di giurisprudenza della Luiss Guido Carli di Roma ... 26 
Gusmeroli Alberto Luigi , Presidente ... 26 

Audizione di rappresentanti delle organizzazioni sindacali CGIL, CISL, UIL e UGL:
Gusmeroli Alberto Luigi , Presidente ... 26 
Ferrari Christian , segretario confederale CGIL ... 27 
Graziani Giorgio , segretario confederale CISL ... 28 
Cuciniello Bianca , funzionaria UIL ... 29 
Conti Stefano , segretario nazionale UGL telecomunicazioni ... 30 
Gusmeroli Alberto Luigi , Presidente ... 31 
Peluffo Vinicio Giuseppe Guido (PD-IDP) , (intervento in videoconferenza) ... 31 
Gusmeroli Alberto Luigi , Presidente ... 31 

Allegato 1: Documentazione depositata dai rappresentanti del Consiglio Nazionale delle Ricerche CNR ... 32 

Allegato 2: Documentazione depositata da Antonio Perrucci ... 42 

Allegato 3: Documentazione depositata dai rappresentanti del Garante per la protezione dei dati personali ... 48 

Allegato 4: Documentazione depositata dai rappresentanti di Hewlett Packard Enterprise ... 51 

Allegato 5: Documentazione depositata dai rappresentanti dell'organizzazione sindacale CGIL ... 68

Sigle dei gruppi parlamentari:
Fratelli d'Italia: FdI;
Partito Democratico - Italia Democratica e Progressista: PD-IDP;
Lega - Salvini Premier: Lega;
MoVimento 5 Stelle: M5S;
Forza Italia - Berlusconi Presidente - PPE: FI-PPE;
Azione - Popolari europeisti riformatori - Renew Europe: AZ-PER-RE;
Alleanza Verdi e Sinistra: AVS;
Noi Moderati (Noi con L'Italia, Coraggio Italia, UDC e Italia al Centro) - MAIE: NM(N-C-U-I)-M;
Italia Viva - il Centro - Renew Europe: IV-C-RE;
Misto: Misto;
Misto-Minoranze Linguistiche: Misto-Min.Ling.;
Misto-+Europa: Misto-+E.

Testo del resoconto stenografico

PRESIDENZA DELLA VICEPRESIDENTE
ILARIA CAVO

  La seduta comincia alle 14.15.

Sulla pubblicità dei lavori.

  PRESIDENTE. Avverto che la pubblicità dei lavori della seduta odierna sarà assicurata anche mediante la resocontazione stenografica e la trasmissione attraverso la web-tv della Camera dei deputati.

Audizione, in videoconferenza, di Brando Benifei membro della Commissione per il mercato interno e la protezione dei consumatori del Parlamento europeo.

  PRESIDENTE. L'ordine del giorno reca, ai sensi dell'articolo 144, comma 1, del Regolamento, l'audizione di Brando Benifei, membro della Commissione per il mercato interno e la protezione dei consumatori del Parlamento europeo, nell'ambito dell'indagine conoscitiva sull'intelligenza artificiale: opportunità e rischi per il sistema produttivo.
  Invito chi interviene a volerlo fare sinteticamente, in modo da lasciare più spazio possibile alle domande dei commissari, riservando gli ulteriori approfondimenti ad un eventuale contributo scritto, che verrà volentieri acquisito ai lavori della Commissione, focalizzandosi sull'oggetto dell'indagine come definito dal programma.
  Do la parola a Brando Benifei, ricordando che il tempo complessivo a disposizione è di circa 15 minuti.

  BRANDO BENIFEI, membro della Commissione per il mercato interno e la protezione dei consumatori del Parlamento europeo (intervento in videoconferenza). Signor presidente, grazie per questa opportunità. Penso sia molto importante che il Parlamento italiano prosegua in questo percorso. In un'altra Commissione avevo già avuto modo di partecipare a un'audizione, nella fase precedente all'avvio del lavoro legislativo vero e proprio, sul regolamento europeo sull'intelligenza artificiale.
  Sono felice di poter relazionare qui e dare un contributo a questa indagine conoscitiva, portando il punto di vista del lavoro al Parlamento europeo e nelle istituzioni europee sul regolamento europeo sull'intelligenza artificiale, denominato «AI Act».
  Sono stato, e sono ancora, perché siamo ancora nelle fasi conclusive del lavoro, il correlatore generale del regolamento, insieme a un collega della Romania, Dragoş Tudorache. Io faccio parte del gruppo Socialisti e Democratici, mentre il collega del gruppo Renew Europe. Insieme abbiamo guidato i negoziati legislativi.
  Voglio sottolineare che questo strumento normativo è un regolamento, e quindi non necessita di passaggi di adattamento nazionale in Italia, nel Parlamento italiano, con solo limitati passaggi da parte del Governo italiano per alcuni atti attuativi, ad esempio l'individuazione dell'Autorità di supervisione nazionale sul regolamento, secondo le regole stabilite dal regolamento stesso, per cui è un regolamento direttamente applicabile. Quindi, è molto importante seguirne l'entrata in vigore e poi la graduale implementazione. Infatti, dico subito – poi entrerò nel merito di ciò che abbiamo stabilito con il regolamento – che il testo è chiuso, è disponibile, si trova anche con facilità, ma ovviamente lo possiamo anche fornire, se già non vi è stato messo a disposizione dai servizi della Camera.Pag. 4 Dunque, il testo si può discutere nella sua forma finale, perché mancano soltanto due votazioni di tipo confermativo, senza possibilità di modificarlo.
  Le regole dettate da questo regolamento entreranno in vigore gradualmente. Questo lo voglio dire subito, perché è un tema molto importante rispetto, ad esempio, ad alcune difficoltà che ci sono state in passato rispetto all'applicazione di precedenti regolamenti. Faccio un esempio fra tutti, che è molto noto: il regolamento generale sulla protezione dei dati personali (GDPR), dove certamente le nostre imprese hanno avuto spesso difficoltà nell'entrare dentro il funzionamento della norma nei tempi previsti, anche forse per un'assenza di un impegno sulla compliance anticipata volontaria, che invece noi abbiamo voluto implementare in questo regolamento, il quale è molto complesso, ma dal momento in cui sarà legge, quindi da aprile 2024, tendenzialmente, se tutto va come deve andare, avrà un'entrata in funzione scaglionata. Dopo sei mesi entreranno in vigore i divieti. Quindi, entro il 2024 gli usi di intelligenza artificiale che il regolamento vieta saranno vietati e sanzionabili. Entro poco più di un anno entreranno in vigore gli obblighi di trasparenza e le regole per i modelli più potenti. Dopo due anni entreranno in vigore le regole per la mitigazione del rischio per i sistemi ad alto rischio.
  Sembrano tempi lunghi. Molti che ascoltano queste spiegazioni ci chiedono come mai l'Europa abbia impiegato due anni a fare una legge, la prima al mondo, e poi si prenda tutto questo tempo per implementarla. In realtà in parte è per ciò che dicevo prima, ovverosia dobbiamo accompagnare le imprese e le istituzioni alla compliance, al rispetto della legge, altrimenti diventa solo carta, non qualcosa di vivo, e occorre tempo. Ad esempio, per la mitigazione dei rischi, per quei sistemi che noi identifichiamo come ad alto rischio – ora lo spiegherò brevemente –, noi abbiamo bisogno di standard. Se noi diciamo che per fare una verifica di conformità di un prodotto di intelligenza artificiale - per parlare proprio di quello che si fa - dobbiamo verificare la qualità e l'appropriatezza dei dati con cui è stata allenata, la cybersicurezza, il controllo umano sul sistema, la governance dei dati, allora servono standard per poter verificarne l'adeguatezza. Questi standard in larga misura non ci sono ancora. Ci stanno lavorando le organizzazioni di standardizzazione e lo dovranno fare le imprese, con il mondo degli esperti.
  Quello che si può fare è un'applicazione approssimata. Lo dico subito. Proviamo a ribaltare il punto di vista. Queste regole oggi nel mondo non è che non ci sono. La mitigazione del rischio dell'intelligenza artificiale per aumentare le opportunità e ridurre i pericoli viene fatta ovunque, dai privati, dalle istituzioni pubbliche, ma è volontaria. Sono raccomandazioni, sono codici di condotta. Al massimo c'è un caso, come l'Executive Order del presidente degli Stati Uniti d'America, Joe Biden, che è obbligatorio solo per le agenzie governative, non è obbligatorio per i privati. Abbiamo un regime diverso. L'Europa, in sostanza, da aprile avrà un suo regime chiaro e articolato di raccomandazioni, che gradualmente diventeranno obbligatorie. È chiaro che non è esattamente così. È un regolamento e sarà obbligatorio da subito in quanto legge, ma avendo questa entrata in vigore scaglionata credo che questa spiegazione che ho dato sia la più chiara e comprensibile.
  Se nel resto del mondo rimangono impegnati con codici di condotta, sistemi di raccomandazione per la mitigazione dei rischi, noi, invece, abbiamo scelto, sì, di partire così perché, di fatto, abbiamo da aprile un sistema di regole consigliate, ma queste regole consigliate, in modo scaglionato come ho detto prima, nell'arco di complessivi due anni, entreranno in vigore quali regole obbligatorie, quindi con sanzioni che prevedono fino alla rimozione dal mercato e con una vigilanza, che viene esercitata da Autorità nazionali di supervisione e dall'Ufficio europeo dell'intelligenza artificiale, che ha una certa forza.
  Per chi conosce meglio le questioni di protezione dei dati, dato che ho fatto il parallelo con il GDPR, l'AI Office è molto più potente dello European Data Protection Pag. 5Supervisor, perché avrà più poteri di investigazione e anche di attivazione rispetto a richieste che arriveranno dagli Stati membri, oltre ad avere l'esclusivo ruolo di occuparsi dei modelli più potenti, modelli come GPT, Gemini, magari Mistral, il modello francese, se andrà nella direzione che pensiamo - ho solo fatto degli esempi, perché si tratta di quelli che saranno ricompresi certamente dati i parametri individuati, poi magari ci saranno anche altri modelli. Insomma, L'AI Office avrà l'esclusiva su questa parte.
  Per andare velocemente ad utilizzare gli ultimi due minuti e mezzo a disposizione, segnalo che sugli elementi regolamentari la riduzione dei rischi avviene - come dicevo - individuando alcuni ambiti particolarmente rischiosi, considerati «ad alto rischio», ad esempio l'uso dell'intelligenza artificiale nei tribunali, nel rapporto medico-paziente, nelle scuole per la valutazione degli allievi, nei processi democratici, nei luoghi di lavoro. Questi sono alcuni esempi di quelli che, nell'allegato 3 del Regolamento, sono elencati come ambiti di utilizzo cosiddetti «ad alto rischio». In questi ambiti, gli sviluppatori, per poter immettere sul mercato un prodotto che ha un uso inteso in questo ambito, devono fare quella verifica di conformità a cui facevo riferimento prima, con caratteristiche come qualità dei dati, cybersicurezza, governance, eccetera.
  Faccio un esempio semplicissimo. Oggi ci sono moltissimi sistemi in circolazione che selezionano i curricula per imprese private o per autorità pubbliche che hanno «imparato» a discriminare le donne, hanno imparato che le donne vanno sempre scartate, qualunque siano le loro esperienze e le loro caratteristiche. Questo è un tipico esempio facilissimo, molto banalizzato, tutto sommato, di algoritmi bias, di bias algoritmico, che viene, in qualche modo, mitigato dalla procedura di conformità prevista dal regolamento.
  Come vi ho detto, non ci siamo inventati qualcosa. Si fanno già queste cose. La differenza è che noi lo sistematizziamo, lo rendiamo obbligatorio, seppur nei tempi che ho detto, e lo mettiamo dentro un contesto di standardizzazione.
  Poi abbiamo una questione importantissima, la cui regolamentazione entrerà in vigore anch'essa in maniera graduale: la trasparenza. Lo dico perché, ad esempio, riguarda un tema che anche il Parlamento italiano ha trattato, quello della riconoscibilità dei contenuti prodotti da intelligenza artificiale, per contrastare i deepfake, ma anche per un valore economico, rendere riconoscibile un contenuto prodotto da essere umano rispetto a quello dell'intelligenza artificiale. Oggi non è così. Noi procederemo con un sistema cosiddetto «watermarking», di filigrana digitale, che permetterà di fare questo. Poi, una tutela del copyright. Ne hanno parlato molto autori, musicisti, case editrici, case discografiche italiane dopo l'approvazione dell'accordo, perché si tratta di norme a tutela del diritto d'autore. Conoscete la causa tra New York Times e OpenAI. Si tratta esattamente di questo campo, cioè mettiamo degli obblighi di trasparenza per rendere evidente e, quindi, anche ricorribile, nel caso, a un detentore di diritti un abuso dell'uso dei loro contenuti.
  Ci sono obblighi, come dicevo prima, per i modelli più potenti che saranno gestiti dall'AI Office, dunque obblighi di safety più sistemica per modelli molto potenti, che non sappiamo bene quale sviluppo potranno avere. Dall'altra parte, sono anche strumenti di uso per le nostre imprese per scrivere sistemi di intelligenza artificiale. Dunque, vogliamo aumentare trasparenza e sicurezza per questi modelli potenti, che ormai sono l'alfabeto dell'intelligenza artificiale.
  Abbiamo, infine, i divieti. Lo devo dire perché, tra l'altro, è la prima cosa che entrerà in vigore. Alcuni usi di intelligenza artificiale sono stati resi vietati in Europa. Parliamo dell'uso delle telecamere a riconoscimento biometrico negli spazi pubblici in tempo reale, se non per casi molto limitati di ricerca di autori di crimini particolarmente efferati e sotto il controllo giudiziario. Questo per evitare di trovarci in una forma di sorveglianza di massa a nostra insaputa.Pag. 6
  La polizia predittiva. Abbiamo vietato i sistemi che individuano un singolo individuo come probabile persona che commetterà un reato, perché è contro lo Stato di diritto, è contro la presunzione di innocenza.
  Abbiamo vietato il riconoscimento emotivo nei luoghi di lavoro e di studio. Ovviamente non vietiamo il riconoscimento di uno stato fisico di un lavoratore, ad esempio un lavoratore che si sta addormentando o che sta avvertendo un'eccessiva fatica, ma vietiamo il riconoscimento emotivo nel senso di quei sistemi, che oggi esistono – funzionino o meno è molto dibattuto – che possono permettere a un datore di lavoro di capire se un dipendente è arrabbiato con lui o è frustrato da qualche elemento nei luoghi di lavoro. Queste sono cose che noi riteniamo siano contro la dignità e un certo diritto, e in Europa le abbiamo vietate.
  Da ultimo, e chiudo, dico che questo regolamento ha aperto un ampio dibattito a livello mondiale. Questo weekend sarò alla Harvard Kennedy School per la European Conference, a parlare proprio di questo. È una conferenza importante a livello continentale su questi temi. In generale, ho trovato tantissima attenzione da parte di tutto il mondo a questo lavoro perché, come ho detto, di fatto siamo i primi a fare il passo da una raccomandazione a un obbligo.
  È chiaro che questo regolamento non tratta la questione, che attiene ad altri atti e ad altre scelte, della competitività europea nel suo insieme, che sono quelli relativi agli investimenti di ricerca comune, ad un mercato di capitali più integrato per finanziare le iniziative di AI, alla condivisione della capacità computazionale, che oggi è un tema su cui gli scienziati europei fanno grandi appelli. Si chiede, infatti, che l'Europa faccia come fanno Cina e Stati Uniti, che mettono insieme le capacità dei supercomputer, cosa che ancora noi non facciamo.
  Spero di avervi dato, in questo poco tempo, un riassunto sufficientemente chiaro del nostro lavoro. Resto, comunque, a disposizione per un breve confronto.

  PRESIDENTE. La ringrazio per questo riassunto efficace e per lo sforzo di rimanere nei tempi, anche se penso che alcuni aspetti meritino un approfondimento.
  Do la parola ai colleghi che intendono intervenire per porre quesiti o formulare osservazioni.

  CHRISTIAN DIEGO DI SANZO. Grazie, presidente. Ringrazio il dottor Brando Benifei per la spiegazione, breve ma assolutamente chiara.
  Mi interessa innanzitutto capire quali sono i sistemi che sta mettendo in campo l'Europa e previsti anche dal regolamento per salvaguardare l'introduzione in Europa di prodotti sviluppati all'estero che trovano il loro ingresso nel mercato europeo potenzialmente evadendo le regole fissate da questo regolamento.
  Vorrei conoscere inoltre quali sono le attività di supporto e se ci sono, secondo la sua opinione, attività di supporto che come Commissione e, quindi, come Parlamento italiano dovremmo fare per eventualmente agevolare sia l'applicazione del regolamento europeo, ma anche magari colmare spazi lasciati dal regolamento europeo che potrebbero essere particolarmente interessanti per il nostro Paese. Grazie.

  PRESIDENTE. Non essendoci altri interventi, vorrei farle io due domande. Una sostanzialmente riguarda il diritto d'autore, un tema che ha toccato, ma capisco che, dovendo essere molto conciso, lo ha solo citato: volevo chiedere se può approfondirlo.
  Ha parlato della necessità di trasparenza per permettere a chi può vantare il diritto d'autore di capire dove viene esercitato e dove viene rispettato o meno, e mi chiedo se poteva dare qualche dettaglio in più.
  L'ultima parte, quella che riguardava tutto il tema dei supercalcolatori, confesso di non averla afferrata, non so se perché ero distratta. Ma mi sembrava interessante come ragionamento, quindi le chiedo se può approfondire leggermente anche questo argomento.
  Noi abbiamo a disposizione un preciso lavoro fatto molto bene dagli uffici su questoPag. 7 regolamento, quindi abbiamo documentazione, però è chiaro che se ritiene di inviarci un appunto, un resoconto, una elaborazione, al di là del regolamento stretto, che ovviamente sarà documentazione esso stesso, siamo più che disponibili ad accettare il contributo. Sarebbe un documento prezioso.

  BRANDO BENIFEI, membro della Commissione per il mercato interno e la protezione dei consumatori del Parlamento europeo (intervento in videoconferenza). Grazie per queste domande.
  Il regolamento, va detto con chiarezza, non si applica solo alle imprese europee, ai prodotti delle imprese europee, ai prodotti realizzati da imprese europee, ma si applica ai prodotti di tutte le imprese del mondo che vogliono vendere e commercializzare i loro prodotti nel territorio europeo.
  Questo è un tema molto importante e da chiarire, perché altrimenti c'è il rischio di pensare che la legge si applica alle imprese europee. Non si applica alle imprese europee, si applica a tutte le imprese del mondo che vogliono commercializzare dei prodotti in Europa ed è proprio la forza del mercato integrato che ci permette di dare queste regole. Chiaramente, se ogni Paese dovesse farle singolarmente, potete immaginare la pressione che i grandi sviluppatori realizzerebbero sui singoli Governi per dire di desistere dal fare questo tipo di attività.
  La forza del mercato integrato è quella che permette poi di darci delle regole, che noi riteniamo siano giuste, e che facciamo applicare a tutti.
  Così come ho insistito sullo sviluppatore e su chi commercializza, perché il grosso del regolamento dà delle indicazioni a chi sviluppa, a chi mette sul mercato avendo sviluppato, aggiungo che ci sono, però, anche degli obblighi, anche qui, più limitati, per gli utilizzatori dei sistemi, utilizzatori intermedi. Mi riferisco alla pubblica amministrazione o all'impresa che ha come terminale ultimo un utilizzatore, come viene detto nel regolamento, un cliente, un cittadino, un lavoratore, eccetera. Anche per loro si applica questo principio. Non si applica agli europei, si applica a tutte le imprese o le pubbliche amministrazioni del mondo, soggetti pubblici o privati, che sono presenti nel suolo europeo.
  Noi abbiamo un tema più ampio di competitività, di tutela, che è il tema del riordino europeo, ancora non completo, non solo sui temi che già citavo – poi tornerò sul tema dei supercomputer –, quindi non solo il tema del mercato dei capitali, non solo il tema degli investimenti comuni, ma anche il tema di un ordine maggiore, di una maggiore capacità organizzativa europea e anche di avere chiarezza delle norme che, secondo me, ancora non c'è fino in fondo su tutti gli ambiti, sull'uso dei dati. Questa è la moneta con cui si fa andare avanti l'intelligenza artificiale.
  Certamente l'accesso a database di qualità in Europa non è a livello di quello che vediamo in altre parti del mondo. Questo, secondo me, è il grande tema di svantaggio competitivo su cui dobbiamo lavorare. Pensare che lo spazio europeo sui dati sanitari, frutto della risposta al Covid, lo abbiamo concluso solo un mese fa nell'esame parlamentare, fa capire quanto l'Europa su questo abbia bisogno di mettere ordine tra Data Act, Data Governance Act, GDPR e tante norme che sono in implementazione. Questo, secondo me, è il tema centrale quando parliamo di competitività.
  Rispetto al lavoro di questa Commissione, del Parlamento italiano, credo che sia fondamentale lavorare per la formazione permanente, per l'accompagnamento delle imprese, lavorando con la Commissione europea, perché noi avvieremo quello che si chiama «patto per l'intelligenza artificiale», dopo l'approvazione del regolamento, che sosterrà l'adattamento graduale delle imprese a queste norme, con incentivi, con risorse, che arriveranno dall'Unione europea, ma anche chiedendo agli Stati membri di fare la loro parte nel sostenere questa applicazione.
  Voglio essere chiaro: queste norme vogliono accompagnare e sostenere l'introduzione di un maggiore uso dell'intelligenza artificiale in Europa, non contrastarlo. È al contrario. La nostra idea è che, di fronte ai consumatori e ai cittadini europei, che hanno Pag. 8un certo tipo di aspettative, perché siamo un contesto dove ci sono determinate tutele che non ci sono in altre parti del mondo, abbiamo bisogno di convincere la nostra cittadinanza, con argomenti giusti e con azioni giuste, che si può avere fiducia.
  Guardate, i sondaggi oggi ci dicono che in Italia la fiducia nell'uso dell'intelligenza artificiale è bassissima. Quindi è qualcosa che noi dobbiamo riuscire a ribaltare, se non vogliamo rimanere indietro anche dal punto di vista dell'avanzamento tecnologico.
  Occorrono, quindi, informazioni, incentivi, sostegno alle imprese e alla compliance, ma anche – questo è un tema più europeo, l'ho citato prima, ma è veramente importante – un intervento sul tema finanziario per riuscire a far sì che i capitali europei non vadano a finanziare imprese extraeuropee ma lavorino in Europa.
  Il tema del diritto d'autore è così organizzato: la direttiva europea sul diritto d'autore e le normative nazionali non vengono toccate dal regolamento e non cambia nulla dal punto di vista della norma sostanziale sul copyright. Ciò che cambia è che, per renderla applicabile, noi obblighiamo gli sviluppatori a rispettare elementi di trasparenza. In particolare, qui parliamo soprattutto dei sistemi di AI generativa. Di che cosa si tratta? Ci sono due strade. Una è l'opt-out. Noi diamo l'obbligo di rispettare una richiesta di non usare i propri contenuti rivolta da un detentore di diritti verso uno sviluppatore. In realtà, va detto che molti sviluppatori già prevedono di far fare gli opt-out in maniera volontaria. Noi li rendiamo obbligatori e soprattutto facciamo sì che sia qualcosa di regolamentato.
  Però, l'opt-out non basta. Serve anche l'altro aspetto, vale a dire quello del riassunto dei contenuti usati. Del resto, l'opt-out funziona finché i contenuti non sono stati usati. Ad esempio, io dico: «non voglio che vengano usati e per usarli ti devi mettere d'accordo con me». Ma se nel frattempo sono già stati usati come facciamo? Ed è il caso di molti dei sistemi più noti. In questo caso obbligheremmo OpenAI con ChatGPT – lo cito dato che è il caso aperto ora davanti al tribunale con il New York Times, quindi è un esempio facile da fare, ma vale per qualunque altro sistema – a rilasciare in forma sufficientemente dettagliata – è l'AI Office europeo che dovrà spiegare meglio come dovrà essere fatto – un riassunto di tutti i dataset che sono stati usati per permettere ai detentori di diritti di verificare se è stato usato qualcosa su cui avevano un diritto ritenuto di doverlo autorizzare prima che fosse utilizzato e, quindi, potersi rivolgere alle autorità competenti, compresa l'Autorità di supervisione. Così evitiamo di portare tutto solo nei tribunali: speriamo che ci siano accordi preventivi e, nel peggiore dei casi, prima di arrivare a una causa, speriamo ci sia un passaggio attraverso le Autorità di supervisione nazionali sull'AI.
  L'effetto lo abbiamo già raggiunto, perché questo aspetto che vi ho indicato, che è stato uno dei temi su cui c'è stata maggiore lobbying contro l'ipotesi di arrivare a questa soluzione, ha prodotto che ci siano già ora molte realtà di sviluppo delle AI che con i detentori di diritti stanno facendo accordi commerciali per non arrivare, quando fra un anno e qualcosa il regolamento sarà vigente, a rischiare cause o problemi ancora più gravi. Questo è il nostro obiettivo: riequilibrare il quadro a favore dei detentori di diritti, dei creativi, degli editori, dei musicisti, dei giornalisti e via elencando.
  Ultimo tema: la capacità computazionale. Prima ho detto che questo è un tema su cui sono usciti appelli importanti di scienziati – ho visto che la Tony Blair Foundation ha fatto un paper piuttosto articolato su questo argomento – che insistono sul fatto che l'Europa dovrebbe condividere maggiormente le capacità di calcolo con i supercomputer e creare una maggiore cooperazione, come avviene in forma più avanzata in altre parti del mondo. Questo, ovviamente, è uno di quei temi di cui si discute. A me è capitato di parlare, perché questo potrebbe andare anche oltre la mera Unione europea, di questo tema al Parlamento inglese, recentemente, in un incontro proprio sui nostri percorsi paralleli di lavoro sull'AI. Questo è un grosso tema, come gli altri che dicevo. Il regolamentoPag. 9 non risolve ma, a mio avviso, neanche impedisce la soluzione dei problemi di competitività dell'Europa rispetto all'AI. Servono molte altre azioni. In parte qualcuna l'abbiamo anche menzionata in questo nostro breve scambio.
  Ho dimenticato una cosa, credo molto importante, data la vostra Commissione. Mi scuso per non averla citata: è la presenza di un sistema di sandbox obbligatorie dentro questo regolamento. Oggi in Italia, ad esempio, abbiamo la sandbox della Banca d'Italia a favore delle fintech. Si tratta di un sistema di creazione di uno spazio normativo protetto per l'ingresso nel mercato di nuovi player, di start up, di nuove idee di business, che non subiscano la concorrenza immediata, pesante di tutti gli incumbents, e anche per aiutare a rispettare le norme, a entrare in maniera graduale e accompagnata. Noi abbiamo reso obbligatoria la sandbox in tutti i Paesi d'Europa. Oggi ci sono Paesi europei che già l'hanno fatta in vista dell'ingresso di queste norme. Ad esempio, la Spagna ha già fatto la sandbox sull'AI. Abbiamo reso obbligatorio per tutti i Paesi d'Europa avere questo spazio di accompagnamento e aiuto per le start up. Questo è stato molto apprezzato, ovviamente, da tutto il mondo delle imprese, soprattutto di quelle che stanno costruendo un loro percorso di sviluppo in questo ambito.

  PRESIDENTE. Non essendoci richieste di intervento, ringrazio l'ospite intervenuto e dichiaro conclusa l'audizione.

Audizione di rappresentanti del Consiglio Nazionale delle Ricerche CNR.

  PRESIDENTE. L'ordine del giorno reca, ai sensi dell'articolo 144, comma 1, del Regolamento, l'audizione di rappresentanti del Consiglio Nazionale delle Ricerche CNR nell'ambito dell'indagine conoscitiva sull'intelligenza artificiale: opportunità e rischi per il sistema produttivo.
  Invito chi interviene a volerlo fare sinteticamente, in modo da lasciare più spazio possibile alle domande dei commissari, riservando gli ulteriori approfondimenti ad un eventuale contributo scritto, che verrà volentieri acquisito ai lavori della Commissione, focalizzandosi sull'oggetto dell'indagine come definito dal programma.
  Do la parola a Giuseppe De Pietro, direttore dell'Istituto di calcolo e reti ad alte prestazioni del Consiglio Nazionale delle Ricerche (CNR), ricordando che il tempo complessivo a disposizione è di circa otto minuti.

  GIUSEPPE DE PIETRO, direttore dell'Istituto di calcolo e reti ad alte prestazioni del Consiglio Nazionale delle Ricerche (CNR). Signor presidente e onorevoli deputati, mi sono premurato di mandarvi le slide del mio breve intervento (vedi allegato 1).
  Parto dalla definizione dell'intelligenza artificiale. L'accezione che daremo in questa breve presentazione è legata a quello che attualmente è l'intelligenza artificiale. Fondamentalmente, è una disciplina dell'informatica che studia le metodologie, le tecniche per la progettazione di sistemi capaci di fornire prestazioni tipiche dell'intelligenza umana. A tutt'oggi, quindi, non stiamo parlando di sistemi intelligenti. Questo, secondo me, è un aspetto molto importante da dirimere.
  Tutto quello che oggi ci sta strabiliando sono sistemi che hanno prestazioni molto interessanti dal punto di vista della funzionalità (per il linguaggio, per la visione, eccetera), ma che non hanno un comportamento intelligente nel senso classico della parola, umano.
  È una tecnologia in piena espansione. È sicuro che questa tecnologia pervaderà tutta la nostra società sotto tantissimi aspetti. Come tutte le tecnologie, non è né buona né cattiva. Sta a noi capirlo dall'uso che ne facciamo. Ci sono tantissimi esempi di tecnologie che utilizziamo che possono essere utilizzate a fini anche etici, morali o a fini addirittura distruttivi.
  È importante dirimere questo aspetto perché pone l'importanza di disciplinare un uso corretto. Proprio perché ormai è un'onda in espansione, è inarrestabile e saremo tutti pervasi dall'intelligenza artificiale, il discorso non è se adottarla o meno, ma come governarla.Pag. 10
  Da questo punto di vista, l'Europa si è mossa abbastanza bene, in tempo, perché con l'AI Act ha cominciato a dare un quadro regolatorio per ciò che concerne l'intelligenza artificiale.
  Cosa sta succedendo nel campo della ricerca? Si sta lavorando affinché questi sistemi abbiano una serie di caratteristiche che sono volte a garantirne innanzitutto la collaborazione e l'interazione con gli esseri umani, che devono comunque detenerne il controllo, questo è fondamentale: capire esattamente i propri limiti, essere consapevoli del contesto in cui operano; devono essere affidabili e sicuri e chiaramente conformi alle leggi e ai principi etici. La ricerca sta comunque lavorando su sistemi di nuova generazione che abbiano queste caratteristiche.
  Voglio precisare, per inciso, che tutti gli algoritmi che attualmente utilizziamo per l'intelligenza artificiale sono il frutto di ricerche e di conoscenze che risalgono agli anni Settanta, se non prima, quindi nulla di nuovo da questo punto di vista. Però, la possibilità di avere calcolatori sempre più potenti e la possibilità di avere enormi quantità di dati a disposizione ha consentito l'esplosione di questi nuovi sistemi.
  Adesso torniamo un po' agli obiettivi dell'indagine della Commissione. Nel mondo produttivo, oggettivamente, sono ci sono fortissimi aspetti di interesse. Sicuramente ci sono possibilità di forti innovazioni nel sistema produttivo, generando un valore aggiunto non trascurabile, contribuendo all'abbassamento dei costi previsti per la realizzazione di prodotti e servizi.
  Moltissime aziende, infatti, stanno cominciando, non da adesso, ad adottare i sistemi di intelligenza artificiale nel loro ciclo di vita, nel loro ciclo produttivo.
  Vi do alcune stime di mercato per far capire che impatto sta avendo, dal punto di vista economico, l'AI. Cito alcune fonti che, ad esempio, dicono che entro il 2027 il mercato a livello mondiale legato all'AI dovrebbe raggiungere i 407 miliardi di dollari, con un tasso di crescita del 37 per cento fino al 2030. Anche l'Italia, da questo punto di vista, in qualche maniera segue questo trend, chiaramente con numeri un po' più bassi. Si stima che nel 2027 il mercato italiano possa arrivare ai 6,5 miliardi di euro. Sappiamo, quindi, che c'è un potenziale di investimento sul mercato veramente importante.
  Ci sono chiaramente varie stime di crescita, a seconda di come il mercato è inteso, se l'AI è inteso in quanto AI o con una serie di servizi a corollario. Comunque, questo è il trend che attualmente viene visto di crescita.
  Ci si sta domandando – è una delle tematiche più importanti – quale sarà l'impatto dell'intelligenza artificiale nel mondo del lavoro. Abbiamo previsioni un po' contrastanti. C'è un rapporto di McKinsey che prevede che, fondamentalmente, entro il 2030, i progressi dell'AI potrebbero addirittura produrre delle ripercussioni su circa il 15 per cento della forza lavoro mondiale. Di contro, invece, il World Economic Forum, in un altro rapporto stimava che entro il 2027 potrebbero essere creati circa il 25 per cento di nuovi posti di lavoro legati al mercato dell'AI.
  È evidente, quindi, che non c'è una idea condivisa su quello che realmente succederà nei prossimi anni, però, in ogni caso, un aspetto da considerare è che comunque la creazione di nuovi posti di lavoro sarà legata a nuovi profili che l'intelligenza artificiale richiede.
  Qui si pone un problema innanzitutto da affrontare rispetto alla formazione. Le imprese dovranno essere pronte a rispondere alla nuova domanda di figure professionali, di cui necessita l'applicazione dell'IA. Si sono già individuati alcuni profili che saranno particolarmente richiesti nei prossimi anni, come ad esempio ingegneri specialisti nel machine learning, nel software della robotica collaborativa e programmatori di soluzioni di intelligenza artificiale e progettisti software.
  C'è un grande problema di formazione, e questo va affrontato, altrimenti dobbiamo in qualche maniera accompagnare questa trasformazione dei profili richiesti dall'intelligenza artificiale.
  Un altro problema aperto, a mio avviso, è quello legato a chi attualmente, specialmente nel mercato italiano, può avvantaggiarsiPag. 11 dell'utilizzo dell'intelligenza artificiale. Secondo una stima ISTAT del 2021, il sistema produttivo italiano era composto da circa 4,5 milioni di imprese. Le PMI sono 221.000 e le microimprese sono oltre 4 milioni.
  Fondamentalmente, noi abbiamo un mercato delle micro e medie imprese che rappresenta il 99 per cento. Se questo, però, andiamo un attimo a confrontarlo con il fatto che, attualmente, il 90 per cento del mercato dell'intelligenza artificiale è legato alle grandi imprese, vedremo che questo tipo di rivoluzione e di benefici sarà al momento fruibile solo da l'1 per cento di quello che riguarda il sistema produttivo.
  Quindi, a mio avviso, un'altra cosa da tenere ben presente è legata allo sviluppo di strategie affinché il grosso del tessuto produttivo italiano non rimanga fuori da queste opportunità e quindi possa avvalersi del beneficio dell'AI.
  Questi, secondo me, sono i due maggiori problemi che in questo momento il sistema produttivo italiano si trova ad affrontare rispetto a una rivoluzione che, piaccia o non piaccia, è inarrestabile.
  Spero di essere stato negli otto minuti.

  PRESIDENTE. È stato negli otto minuti ed è stato anche chiaro sul quadro e sulle prospettive/esigenze.
  Prima di dare la parola ai colleghi che intendono intervenire per porre questi o formulare osservazioni, le faccio una domanda io chiedendole una risposta velocissima.
  Lei ha tracciato un quadro molto chiaro. Le esigenze formative sono molto evidenti. Si riescono a mettere in campo? Ci sono sufficienti modalità e formatori per rispondere a queste esigenze formative? Manca la possibilità di formare o il rischio è che manchino le persone da formare? Non si capisce abbastanza che questo è un settore in espansione?

  GIUSEPPE DE PIETRO, direttore dell'Istituto di calcolo e reti ad alte prestazioni del Consiglio Nazionale delle Ricerche (CNR). Secondo me, entrambe le situazioni.
  Sicuramente ci sono oggi una serie di azioni del sistema formativo, dell'università e della ricerca, che stanno andando sia con la formazione di base che con corsi universitari o anche con dottorati di ricerca legati all'AI o dottorati industriali. Quindi, in qualche maniera, la parte di formazione sta emergendo.
  Sicuramente le grandi imprese si stanno formando già al loro interno. Il vero problema è come trasferire questa cultura alle piccole e alle micro, assolutamente.

  PRESIDENTE. Non essendoci altre richieste di intervento, ringrazio l'ospite intervenuto. Autorizzo la pubblicazione in allegato al resoconto stenografico della seduta odierna della documentazione consegnata dai rappresentanti del Consiglio Nazionale delle Ricerche CNR (vedi allegato 1) e dichiaro conclusa l'audizione.

Audizione, in videoconferenza, di Antonio Perrucci, direttore del Laboratorio sull'ecosistema digitale di ASTRID.

  PRESIDENTE. L'ordine del giorno reca, ai sensi dell'articolo 144, comma 1, del Regolamento, l'audizione, in videoconferenza, di Antonio Perrucci, direttore del Laboratorio sull'ecosistema digitale di ASTRID, nell'ambito dell'indagine conoscitiva sull'intelligenza artificiale: opportunità e rischi per il sistema produttivo.
  Invito chi interviene a volerlo fare sinteticamente, in modo da lasciare più spazio possibile alle domande dei commissari, riservando gli ulteriori approfondimenti ad un eventuale contributo scritto, che verrà volentieri acquisito ai lavori della Commissione, focalizzandosi sull'oggetto dell'indagine come definito dal programma.
  Do la parola ad Antonio Perrucci, ricordando che il tempo complessivo a disposizione è di circa otto minuti.

  ANTONIO PERRUCCI, direttore del Laboratorio sull'ecosistema digitale di ASTRID (intervento in videoconferenza). Signora presidente, un saluto a lei e a tutti gli onorevoli componenti della Commissione.
  Ho preparato un testo (vedi allegato 2). Gli otto minuti saranno dedicati a tre premesse sintetiche.Pag. 12
  La prima. L'intelligenza artificiale, come a voi è ampiamente noto, è innanzitutto una disciplina informatica che esiste da settant'anni. Questo è importante perché negli ultimi tempi se ne era molto parlato come se fosse qualcosa di nuovo. Diversamente, il rilievo che l'intelligenza artificiale ha per l'economia e la società è un fenomeno che ha conosciuto tre primavere, tre stagioni, le prime due negli anni Cinquanta e Sessanta, la seconda negli anni Ottanta e l'ultima nel decennio appena trascorso, con un'accelerazione, a tutti nota, da novembre 2022 con il lancio di ChatGPT. Questa situazione di lancio di questa forma di intelligenza artificiale cosiddetta «generativa» è quella che produce e produrrà notevoli impatti sui sistemi economici che voi state indagando e sulla vita dei cittadini, e che ha già avuto un risultato, perché ha portato alla redazione del testo Artificial Intelligence Act, che è ormai concluso, avviato ad aprile 2021 e che dovrebbe vedere l'ultimo passaggio ad aprile 2024.
  La seconda premessa riguarda la considerazione dell'IA non come un fenomeno stand alone, ma come uno degli elementi principali dell'ecosistema digitale. In estrema sintesi, l'IA va considerata assieme allo sviluppo dei big data, del cloud, del supercalcolo e della diffusione delle reti a banda ultralarga.
  La concomitanza dei significativi progressi di queste diverse tecnologie – assieme agli avanzamenti dei modelli di deep learning negli anni Dieci – è la ragione per cui l'attuale «stagione» dell'IA non è destinata a concludersi con un insuccesso, come è accaduto alle precedenti.
  Ultima osservazione preliminare. Gli impatti, che rappresentano una finalità importante di questa indagine conoscitiva, devono essere assolutamente distinti a livello macro, meso, dove per meso intendiamo settoriale, e micro.
  La vostra indagine ha molti obiettivi, tra cui ne ho selezionati due: lo stato dell'arte dell'applicazione dell'intelligenza artificiale nel sistema produttivo migliore possibile con riferimento al nostro Paese; gli interventi di policy necessari.
  Partiamo dal primo aspetto: intelligenza artificiale ed economia. Vi fornisco qualche numero che dà un ordine di grandezza. Li ritroverete tutti nel testo, magari con qualche arricchimento. Per Goldman Sachs, dopo un avvio lento, nel 2032 la spesa in soluzioni di intelligenza artificiale raggiungerà il 2,5 per cento del PIL a livello mondiale. Questa è la spesa. Se, invece, si guarda alla sola intelligenza generativa, quella più promettente, viene stimata una dimensione tra i 2,6 e i 4,4 trilioni di dollari all'anno, tra il 2,6 ed il 4,4 per cento del PIL mondiale. Questo è McKinsey che lo dice e l'OCSE lo riprende a settembre dell'anno scorso.
  Inoltre, per Goldman Sachs entro dieci anni il contributo al PIL potrebbe arrivare addirittura al 7 per cento del PIL mondiale. Nell'ultimo decennio gli investimenti in intelligenza artificiale sono cresciuti di tredici volte e negli ultimi sette anni sono state costituite oltre 41.000 imprese impegnate nel settore, la metà negli Stati Uniti. L'Italia segue gli altri Paesi in Europa, dopo Regno Unito, Germania e Francia. Dal 2017 ad oggi le quattro grandi piattaforme digitali, Apple, Microsoft, Meta e Alphabet, hanno investito molto per acquisizione di imprese di intelligenza artificiale, ben cinquantanove. Questo indica un forte posizionamento delle grandi piattaforme digitali. Infine, per quanto riguarda gli impatti su produttività e occupazione, vi rinvio direttamente al testo, perché su quello abbiamo condotto come ASTRID alcuni approfondimenti sulle ricerche in corso.
  Torniamo all'Italia. La situazione fa riflettere, quantomeno riflettere. Sono recenti i dati forniti dall'Osservatorio del Politecnico di Milano, che stima in 730 milioni di euro il valore del mercato italiano l'anno scorso. Assinform/Anitec, per Confindustria, indica un valore di 570 milioni di euro. Le prospettive di crescita appaiono interessanti: arriveremo, secondo Confindustria, a 1,2 miliardi nel 2026.
  La dinamica è di forte crescita, ma credo non si debba non sottolineare la distanza che questi numeri hanno con le dimensioni che caratterizzano i due grandi blocchi, gli Stati Uniti e la Cina, ma anche Pag. 13altri Paesi europei. È un dato improprio di riferimento, ma sapete bene che da sola un'impresa, Microsoft, ha finora investito 13 miliardi di dollari in OpenAI, che è la società proprietaria di ChatGPT.
  È molto interessante, ma pochi lo dicono, che se, al di là del fatturato prodotto dalle soluzioni applicative, cioè dalle fabbriche dell'intelligenza artificiale, si va a vedere l'impatto sui sistemi produttivi, quindi l'adozione di questa soluzione, i benefìci per la crescita diventano molto rilevanti. Il Politecnico di Milano fornisce un dato che io, onestamente, ho trovato stupefacente. Relata refero, perché così è scritto: al 2030, tra sei anni, il valore addizionale per l'economia nazionale, per l'economia italiana, sarebbe di oltre 300 miliardi di euro, più o meno il 15 per cento del Prodotto interno lordo. Mi riservo di verificare meglio questa cifra parlandone con i colleghi del Politecnico di Milano. Questo a livello macro, qualche cifra, ma anche micro.
  La dimensione settoriale. È interessante vedere quello che è emerso da studi recenti, in particolare dall'OCSE. Se andiamo a vedere, i settori i più promettenti sono: il coding, la programmazione e i motori di ricerca; le industrie creative e le arti; la formazione scolastica; la sanità. Quindi, due settori di intervento prevalentemente pubblico, ma non solo (scuola e sanità) e industrie specializzate. Questo non significa - vorrei sottolinearlo - che non vi siano riflessi importanti sull'industria manifatturiera, sui servizi e anche in agricoltura. Nell'agroalimentare, in modo più preciso.
  In Italia le analisi che esistono dicono che credito e telecomunicazioni sono quelle che, ad oggi, stanno facendo il maggiore ricorso a sistemi di intelligenza artificiale. Un brevissimo spot per l'Osservatorio sulle dinamiche dell'IA, presso la Fondazione Astrid: noi ci concentreremo su tre macro settori - sanità e salute, credito e assicurazioni e agroalimentari - perché vogliamo studiare un po' i trend tecnologici di mercato, oltre che regolamentari e legislativi, dell'intelligenza artificiale. A livello micro c'è una convinzione diffusa, devo dire, vedendo gli studi e anche i case study, che porterà una maggiore efficienza nei processi, miglioramenti importanti nelle relazioni con la clientela e nella gestione delle risorse umane. Però, quando si va all'Italia - il dato lo conoscerete già - c'è una dicotomia davvero impressionante nel livello di adozione di almeno un progetto di intelligenza artificiale. Nelle grandi imprese nel 61 per cento dei casi questo è avvenuto, mentre per le piccole e medie imprese siamo fermi al 18 per cento. Lo iato è impressionante. Sul versante dell'offerta, cioè delle imprese che producono intelligenza artificiale (la Commissione europea usa un'espressione che io trovo divertente, ossia «fabbrica dell'intelligenza artificiale»), a parte poche eccellenze, è ancora limitato il numero di start up impegnate in questo campo.
  Abbiamo di recente la vicenda di iGenius, il primo Large Language Model italiano. Auguriamo all'impresa un successo che consenta di stare sul mercato europeo, innanzitutto.
  L'intervento pubblico. L'Europa - è noto - è molto brava a fare le regole, quello che viene chiamato Brussels Effect. Ha definito il regolamento generale sulla protezione dei dati, entrato in vigore nel maggio del 2018. Poi, negli ultimi tempi, grande fermento nella produzione normativa: il Digital Services Act, il Digital Markets Act e sono in via di conclusione i percorsi del Data Act e dell'Artificial Intelligence Act.
  Non è vero, però, che la Commissione europea non si sia occupata anche degli aspetti legati al mondo della ricerca e dell'industria. Lo ha fatto. Timidamente, ma lo ha fatto. Già nel Libro bianco del 2020 se ne parlava, però un conto è parlare, altro conto è mettere in campo le iniziative.
  Nel complesso, comunque, nel contesto dell'ecosistema digitale - non c'è tempo adesso per sottolinearlo - l'Europa non è sempre un'inseguitrice. In alcuni casi, e cito il supercalcolo, anzi, siamo all'avanguardia. Fino a pochi giorni fa la Commissione europea prevedeva di investire un miliardo di euro all'anno nelle intelligenze artificiali, utilizzando fondamentalmente due programmi: Europa Digitale e Orizzonte Europa. L'obiettivo era di attrarre 20 miliardiPag. 14 di euro di investimento totali annui nel decennio.
  Ora leggo che per smentire la falsa narrazione del Brussels Effect, come dice Roberto Viola, direttore di DG Connect (Direzione generale delle Reti di comunicazione, dei contenuti e delle tecnologie della Commissione europea), persona che conosco molto bene da anni, negli ultimi giorni (stiamo parlando di fine gennaio) è stato presentato un ulteriore pacchetto di misure che vale 4 miliardi di euro. Precisiamo: sono 4 miliardi di euro di investimenti pubblici e privati.

  PRESIDENTE. La devo invitare a concludere, mi perdoni, per rispettare i tempi.

  ANTONIO PERRUCCI, direttore del Laboratorio sull'ecosistema digitale di ASTRID (intervento in videoconferenza). Ho finito. Le misure sono molto mirate: potenziamento della rete dei supercalcolatori europei, favorendo l'accesso al calcolo soprattutto per le piccole e medie imprese e le start up, e sviluppo di mega algoritmi di intelligenza artificiale.
  L'Italia. Come è a voi noto, l'Italia sta aggiornando la propria strategia sull'intelligenza artificiale, su iniziativa del sottosegretario di Stato alla presidenza del Consiglio con delega all'Innovazione Alessio Butti.
  Concludo con un auspicio. Questa indagine conoscitiva, insieme alle altre che sto seguendo, ne ho contate sette finora tra Camera e Senato, penso sia un'occasione per fornire ulteriori chiarimenti e per rapidamente definire e avere una strategia che non potrà che tener conto del quadro europeo, perché – questa è un'altra considerazione – non è possibile immaginare una via italiana all'intelligenza artificiale che non sia all'interno della cornice europea.
  Vi ringrazio per l'attenzione.

  PRESIDENTE. Non essendoci richieste di intervento, ringrazio l'ospite intervenuto. Autorizzo la pubblicazione in allegato al resoconto stenografico della seduta odierna della documentazione consegnata da Antonio Perrucci (vedi allegato 2) e dichiaro conclusa l'audizione.

PRESIDENZA DEL PRESIDENTE
ALBERTO LUIGI GUSMEROLI

Audizione di rappresentanti del Garante per la protezione dei dati personali.

  PRESIDENTE. L'ordine del giorno reca, ai sensi dell'articolo 144, comma 1, del Regolamento, l'audizione di rappresentanti del Garante per la protezione dei dati personali nell'ambito dell'indagine conoscitiva sull'intelligenza artificiale: opportunità e rischi per il sistema produttivo.
  Invito chi interviene a volerlo fare sinteticamente, in modo da lasciare più spazio possibile alle domande dei commissari, riservando gli ulteriori approfondimenti ad un eventuale contributo scritto, che verrà volentieri acquisito ai lavori della Commissione, focalizzandosi sull'oggetto dell'indagine come definito dal programma.
  Do la parola a Pasquale Stanzione, presidente dell'Autorità Garante per la protezione dei dati personali, ricordando che il tempo complessivo a disposizione è di circa otto minuti.

  PASQUALE STANZIONE, presidente dell'Autorità Garante per la protezione dei dati personali. Signor presidente, cercherò di restare nei termini.
  Il discorso verte sul sostenere la competenza della mia Autorità in ordine ai problemi dell'intelligenza artificiale. Sono grato alla Commissione per questo invito che sottende un po' alla consapevolezza della rilevanza della protezione dei dati nel governo dell'intelligenza artificiale, che è divenuta oggetto di dibattito politico a livello globale dopo la diffusione soprattutto dell'intelligenza artificiale generativa. Questo essenzialmente in ragione della capacità simulativa rispetto al ragionamento umano di questo tipo di intelligenza artificiale, capace di svolgere analisi di tipo semantico e quindi anche potenzialmente di sostituire l'uomo in determinate situazioni e in determinate funzioni.Pag. 15
  Anche per questa ragione, i Ministri del digitale riuniti al G7 di Tokyo, già lo scorso anno hanno convenuto sulla opportunità di una regolazione globale dell'intelligenza artificiale per renderla affidabile, in linea con i comuni valori democratici condivisi.
  Vi è una differenza, però. Mentre negli Stati Uniti ci si limita a un Executive Order rivolto alle Agenzie federali, l'Europa, nella costanza, nel seguito della propria impostazione, giunge all'approvazione di un regolamento generale, il famoso AI Act, affidando a una direttiva i profili di responsabilità.
  Tuttavia, già nel 2016 l'Unione europea aveva elaborato una prima disciplina di questa intelligenza artificiale, attraverso l'articolo 22 del regolamento europeo, il famoso GDPR. Se infatti noi, come Garanti, abbiamo potuto intervenire su ChatGPT – lo ricorderete – l'anno scorso con il provvedimento inibitorio e ancor prima sul chatbot Replika, è perché la disciplina di protezione dei dati regola, e continuerà a farlo anche dopo l'AI Act, il fulcro dell'intelligenza artificiale. Il trattamento dei dati personali è funzionale a processi decisionali automatizzati e soprattutto all'addestramento, all'alimentazione dell'algoritmo. Ebbene, rispetto a questo nucleo centrale dell'intelligenza artificiale, la disciplina di protezione dei dati offre alcune garanzie essenziali, che brevemente enumero.
  Il principio di conoscibilità, che esclude la legittimità di algoritmi black-box, cioè riconoscendo il diritto di ricevere informazioni significative sulla logica utilizzata. Il principio di non esclusività della decisione algoritmica, che impone, cioè, un intervento umano capace di controllare, validare o smentire la decisione automatizzata. Pensate soprattutto al problema del cosiddetto «diritto produttivo» e delle sentenze: aiuto sì alle sentenze, ma mai escludere l'intervento umano del giudice che valuta le situazioni concrete. Il divieto di discriminazione algoritmica, quindi distinguere a seconda dell'etnia, a seconda del genere eccetera. Un generale principio, insomma, di trasparenza che impone precisi obblighi informativi nei confronti dell'utente. Infine, il criterio, oggi come oggi importantissimo, di qualità ed esattezza dei dati da utilizzare, particolarmente rilevante per evitare i bias propri di un addestramento dell'algoritmo sulla base di informazioni inesatte o non sufficientemente rappresentative, che darebbero luogo alle famigerate fake news.
  Le garanzie particolari accordate nel trattamento dei dati dei minori, inoltre, si sono rivelate determinanti nell'assicurare il doveroso controllo sull'accesso degli infraquattordicenni ad alcuni dei contenuti offerti da questi chatbot, ritenuti inadeguati, ad esempio, perché sessualmente espliciti, per il loro grado di sviluppo cognitivo, etico, personologico e, dunque, personale. L'Italia ha fissato al quattordicesimo anno di età la possibilità di dare il consenso digitale, dal momento che devono avere consapevolezza e capacità di discernimento per l'utilizzo consapevole e non rischioso delle neotecnologie.
  Ebbene, i princìpi sanciti dalla disciplina della privacy hanno così già assunto un valore determinante nella regolazione dei processi algoritmici, al punto di aver consentito, ad esempio, alla giurisprudenza amministrativa, soprattutto al Consiglio di Stato, di rinvenirvi la disciplina di alcune determinate fattispecie e al Garante di conformare l'utilizzo dell'intelligenza artificiale con i valori propri dell'ordinamento costituzionale nostro ed europeo, entrambi basati sulla centralità della persona umana, sulla sua dignità e sui princìpi di solidarietà.
  Dunque, lungi dal frenare l'innovazione, il Garante, semmai, l'ha promossa indirizzandola in una direzione democraticamente sostenibile e compatibile con la tutela della persona. Questo spiega non soltanto perché l'AI Act europeo si fondi anche sull'articolo 16 del TFUE (Trattato sul funzionamento dell'UE), vale a dire la base giuridica della normativa in materia di protezione dei dati, ma soprattutto perché mutui dal GDPR molte opzioni di politica legislativa. Ne enumero alcune: la tassonomia dei divieti e delle regole applicabili, fondata sul grado di rischiosità dei sistemi (rischio grave e meno grave, rischio tollerabile); la valutazione di impatto sui diritti Pag. 16fondamentali per le applicazioni ad alto rischio; il principio di trasparenza quale cardine del rapporto tra utilizzo della tecnica e autodeterminazione della persona. Ancora, pensate alle garanzie rafforzate per i dati sensibili, ovverosia quelli appartenenti a categorie particolari, penso ai dati sanitari; il sistema dei diritti, delle tutele e delle sanzioni, in genere la governance nella sua duplice dimensione, interna e sovranazionale.
  Mi avvio a concludere. La dimensione costituzionale dell'AI Act, quale aspirazione alla tutela dei diritti e delle libertà fondamentali dai rischi potenzialmente derivanti da un uso anomico, dunque senza regolamentazione, della tecnica, onererà, tuttavia, il nostro legislatore - voi - in fase discendente della previsione di adeguate garanzie di indipendenza dell'Autorità nazionale che sia competente al riguardo.
  L'impatto significativo e trasversale dell'intelligenza artificiale sui diritti fondamentali suggerisce, infatti, di attribuirne la competenza - ecco il problema - ad autorità caratterizzate da requisiti di indipendenza, in ragione dei limiti e delle aporie che la regola maggioritaria presenta. Ce lo insegnava Norberto Bobbio: di fronte a quel territorio di frontiera, rappresentato dai diritti di libertà, la regola principale è quella dell'autonomia, quella dell'indipendenza. In ragione della stretta interrelazione tra intelligenza artificiale e privacy, della competenza già acquisita in materia dalle autorità di controllo sul processo decisionale automatizzato, sarebbe utile ragionare sulla proposta del Comitato europeo per la protezione dei dati e del Garante europeo volta a suggerire l'individuazione nell'Autorità di protezione dei dati dell'Autorità di controllo per l'intelligenza artificiale.
  Insomma, non è un «Cicero pro domo sua», ma la designazione dell'Autorità per la protezione dei dati come autorità nazionale di controllo assicurerebbe un approccio normativo più armonizzato e contribuirebbe all'azione di un'interpretazione coerente delle disposizioni in materia di trattamento dei dati. Questa soluzione garantirebbe, infine, una notevole semplificazione per gli utenti, che dovrebbero rivolgersi a un'unica autorità per i sistemi di intelligenza che operino sui dati personali, dunque una maggiore coerenza della disciplina complessivamente considerata, nonché l'estensione dello statuto di garanzie delle autorità di protezione al settore dell'intelligenza artificiale.
  Questa scelta verrebbe incontro, infine, anche alle preoccupazioni espresse dal Governo nella scorsa legislatura in ordine agli oneri amministrativi e finanziari connessi all'attuazione dell'AI Act, nonché ai tempi eccessivamente lunghi di attuazione, imputabili alla complessità del meccanismo di governance. L'individuazione - e chiudo veramente - nel Garante dell'Autorità di controllo consentirebbe, infatti, un adeguamento quanto mai tempestivo agli obblighi ivi previsti, riducendone gli oneri, potendo esso avvalersi dell'esperienza già maturata al riguardo.
  Le Autorità di protezione dei dati possiedono già oggi i requisiti di competenza e di indipendenza necessari per garantire un'attuazione pienamente coerente dell'AI Act e un'applicazione lungimirante delle sue disposizioni.
  Il Garante italiano, come le altre autorità europee, ben potrebbe, infatti, assicurare entrambi questi obiettivi, in una prospettiva anche di riduzione degli oneri amministrativi, perché significherebbe in un'unica autorità gli adempimenti previsti dalle due discipline, e comunque di coerenza complessiva dell'applicazione della normativa europea in materia. Come è a voi noto, l'Unione europea si avvia a costruire o sta facendo questo mosaico di normativa attraverso i GDPR, l'AI Act, il Digital Service Act, il Digital Market Act. È veramente un mosaico che ci fa ricordare come l'Europa, a differenza di altre regioni globali, sia soprattutto una comunità di diritto.
  Grazie per la vostra attenzione.

  PRESIDENTE. Non essendoci richieste di intervento, ringrazio l'ospite intervenuto. Autorizzo la pubblicazione in allegato al resoconto stenografico della seduta odierna della documentazione consegnata dai rappresentanti del Garante per la protezione Pag. 17dei dati personali (vedi allegato 3) e dichiaro conclusa l'audizione.

Audizione di rappresentanti di Associazione nazionale industrie cinematografiche audiovisive e digitali ANICA

  PRESIDENTE. L'ordine del giorno reca, ai sensi dell'articolo 144, comma 1, del Regolamento, l'audizione di rappresentanti di Associazione nazionale industrie cinematografiche audiovisive e digitali ANICA nell'ambito dell'indagine conoscitiva sull'intelligenza artificiale: opportunità e rischi per il sistema produttivo.
  Invito chi interviene a volerlo fare sinteticamente, in modo da lasciare più spazio possibile alle domande dei commissari, riservando gli ulteriori approfondimenti ad un eventuale contributo scritto, che verrà volentieri acquisito ai lavori della Commissione, focalizzandosi sull'oggetto dell'indagine come definito dal programma.
  Do la parola a Francesco Rutelli, presidente di Associazione nazionale industrie cinematografiche audiovisive e digitali ANICA, ricordando che il tempo complessivo a disposizione è di circa otto minuti.

  FRANCESCO RUTELLI, presidente di Associazione nazionale industrie cinematografiche audiovisive e digitali ANICA. Signor presidente, la ringrazio e ringrazio i componenti della Commissione, esprimendo apprezzamento per l'impostazione strategica che avete dato a questo approfondimento conoscitivo.
  È ovvio che le competenze sono in molte direzioni. Vi do un quadro di sintesi per quello che riguarda il settore produttivo del cinema e dell'audiovisivo, partendo proprio dalla denominazione dell'associazione che ho l'onore di presiedere, l'ANICA, che ha ottanta anni di vita e proprio negli ultimi anni ha cambiato denominazione e si chiama «Associazione nazionale delle industrie cinema, audiovisivo e digitali», prendendo atto e operando nella direzione della consapevolezza dei cambiamenti di cui oggi voi vi state occupando.
  Una parte delle nostre industrie si avvale di strumenti di intelligenza artificiale, anche nella produzione, per gli effetti speciali, per le post-produzioni.
  La cosa rilevante è che sono nate e sono associate a questa antica associazione, che quindi non ha più soltanto i produttori, i distributori e le imprese tecniche, tra le quali alcune hanno dei compiti di alta complessità tecnologica, anche imprese digitali in quanto tali, che hanno creato un'unione che si chiama «Unione delle imprese digitali e creator».
  Abbiamo a bordo, ed è un fatto importante perché sono assoggettati a regolazione in Italia, gli streamer, cioè, per capirci, Netflix e le altre aziende che hanno creato la loro grande ascesa con i servizi di streaming, le piattaforme. Segnalo, tra l'altro, che uno dei punti fondamentali che riguarda anche queste aziende è la trasparenza. Noi siamo parte di una società che si chiama «Cinetel», che diffonde in modo sistematico, estremamente puntuale, tutti i dati sulle presenze nei cinema.
  Da ultimo è stato apprezzabile che Netflix abbia reso noto il numero di visualizzazioni che hanno avuto i prodotti italiani, realizzati in Italia. È un inizio di trasparenza importante. Come è giusto per le aziende avere queste informazioni ai fini della pubblicità, con i dati relativi agli utenti, ai fruitori, è anche importante che il numero di visualizzazioni diventi un elemento di valutazione pubblico.
  Le ho citato Cinetel, uno strumento per cui, con i rappresentanti del Governo, con la Senatrice Lucia Borgonzoni, sottosegretario di Stato al Ministero della cultura, abbiamo di recente fatto conoscere analiticamente i dati anche su sesso, età, frequenza nelle sale, in maniera sempre più, evidentemente, integrata.
  Ma è integrata l'industria. Non c'è più solo la sala. I prodotti vanno nelle televisioni, i prodotti vanno in streaming, i prodotti vanno sulla rete. In questo contesto, dove può essere l'impatto dell'intelligenza artificiale? Sicuramente nelle post-produzioni (che gradualmente avranno sempre meno bisogno di addetti; ci penseranno gli strumenti tecnologici a fare quel lavoro, con una guida, ovviamente, umana, ma sempre più ristretta nel numero degli addetti),Pag. 18 nei servizi (come per tutti i comparti produttivi) e nella gestione dei dati (idem).
  Segnalo, da questo punto di vista, presidente, l'importanza di due recenti accordi che abbiamo sottoscritto, come parte datoriale, con le rappresentanze sindacali assieme alle altre associazioni di categoria: quello che riguarda il doppiaggio e quello che riguarda attori e interpreti. Come forse voi sapete, questo è stato oggetto di un lunghissimo braccio di ferro a Hollywood, che ha fermato per oltre sei mesi tutte le produzioni americane, perché i protagonisti - sia del doppiaggio sia gli attori - volevano garanzie che i loro contenuti, la loro immagine, le loro produzioni e i relativi diritti non venissero immessi su piattaforme fuori controllo. Infatti, nei nostri contratti ci sono riferimenti espliciti alla necessità che, nei casi in cui si possa accedere a queste informazioni e riversarle su piattaforma di intelligenza artificiale generativa, questo deve essere oggetto di comunicazione, nel caso di negoziato. Questo è importante anche a tutela del lavoro italiano.
  Nel concludere, per non sottrarre altro tempo, segnalo che dobbiamo considerare il tema dell'occupazione, cioè dei posti di lavoro, dello specifico industriale italiano come priorità, presidente e colleghi della Commissione. Non è un mistero - lo dico senza citare singoli casi - che ci siano alcuni protagonisti della voce, attori, che l'hanno venduta. Questa voce potrà essere utilizzata dopo la loro morte anche per produrre spot o per essere riutilizzata in eventi pubblicitari o di altro tipo. Questo è un aspetto.
  Un altro aspetto, ovviamente, è quello dei fake. Si può utilizzare la voce. Certo, ed è relativamente facile con gli algoritmi. Che accade con l'immagine in quanto tale? Cosa accade con la manipolazione delle immagini? Questo è il grande tema, che sicuramente voi incrociate e che tocca tutti noi, quello dei deepfake. Tutti aspetti molto pericolosi che toccano proprio il settore dell'audiovisivo. Che cosa accade? Cosa ci dobbiamo aspettare? Mi permetta di fare una annotazione personale: niente di così nuovo. Pensi che a me è capitato di avere, in un'epoca lontana, un fake di un mio presunto appello, che non ho fatto mai, che ha avuto non so quante visualizzazioni, in cui sembrava che io rivolgessi un invito in lingua inglese per visitare l'Italia. Non l'ho mai fatto. È stato estratto un frammento ed è stato montato. Io l'ho sottovalutato, all'epoca. È ritornato in auge qualche tempo fa, quindi ne ho chiesto - e ottenuto, ovviamente - la rimozione da YouTube e ho segnalato che si tratta di un fake, di un falso. Di un falso, presidente, avvenuto diciassette anni fa. Quindi, una manipolazione ante litteram, non è una «novità del giorno», anche se qualcuno ancora ci ritorna, ma posso capirlo.
  Altro aspetto cruciale che vi segnalo è la pirateria audiovisuale, una vera e propria industria illegale, per la quale importante è stato il provvedimento che avete adottato in Parlamento per colpirla rapidamente con alcune misure. Fu l'onorevole Capitanio che se ne fece protagonista, dopodiché venne approvato unanimemente dal Parlamento, al fine di stoppare in tempo reale le attività di pirateria, che si avvalgono dell'intelligenza artificiale per moltiplicare i danni nei confronti dei titolari dei diritti, oltre che casi di manipolazione.
  Vi segnalo anche una riflessione molto giusta che ho letto recentemente su un giornale americano. Oggi abbiamo un pericolo sull'attualità, ma abbiamo anche un pericolo di manipolare la Storia, perché la possibilità che si acceda a immagini storiche e che esse vengano manipolate, trasformate può portare non solo a modificare ciò che impatta sul nostro presente, ma anche l'interpretazione che noi diamo di vicende storiche che dovrebbero avere, invece, una caratterizzazione che potremmo definire oggettiva. Certo, non c'è niente di assolutamente oggettivo, neanche nella storia, tutto va interpretato. Ma l'eventualità che la verità di un'espressione possa essere rovesciata attraverso i presìdi audiovisuali della pirateria impone un'attenzione estrema da parte del Parlamento, del regolatore, del Governo nella direzione che certamente voi state seguendo.
  La mia conclusione è in due direzioni. La prima riguarda l'importanza dell'aspettoPag. 19 educativo, già promosso da alcune delle nostre imprese. Ne cito una che è guidata dalla presidente dell'Unione degli editori e creators digitali, Manuela Cacciamani, che già da anni conduce specifiche campagne di informazione rivolte alle giovani generazioni sui rischi del web e delle manipolazioni. Lo ha fatto, da ultimo, sul bullismo, lo ha fatto su certi casi, come quello della Blue Whale (lett. Balena azzurra, in riferimento ai comportamenti apparentemente immotivati di spiaggiamento e morte di questi cetacei, con la quale si designa un gioco di adescamento on line, N.d.R.) con cui si creavano delle dinamiche per cui bambini o ragazzini giungevano a buttarsi dalle finestre, seguendo degli ordini compelling, compulsivi. Quindi, le nostre aziende fanno anche azioni di volontariato, integrate con il Ministero dell'istruzione e del merito, per cercare di dare una mano in una direzione formativa. Questo è cruciale soprattutto verso i giovanissimi.
  La seconda direzione riguarda un invito a non dimenticare mai qui l'importanza, presidente, di questo settore industriale in Italia. A volte sento dire che i soldi dati per finanziare il cinema e l'audiovisivo sono buttati via. Ma gli altri Stati mica lo fanno per beneficenza. Noi abbiamo a che fare, presidente, con Paesi concorrenti dal punto di vista industriale, penso alla Francia, che hanno strategie industriali e finanziamenti imparagonabili ai nostri da decenni. Lei sa che nei trattati dell'Unione europea non figura la cultura tra le materie dell'Unione proprio perché la Francia ha voluto mantenere il suo profilo di autonomia, anche con le sue relative definizioni. In parte questo vale per la Germania. La Spagna ha scelto un approccio ultraliberista: super-incentivi finanziari e fiscali per attrarre investimenti e creare lì studios. Alcuni Paesi dell'area balcanica (senza citare l'uno o l'altro) fanno concorrenza sleale attraverso procedimenti di minore trasparenza negli oneri fiscali, del lavoro, eccetera.
  Guai a dimenticare che, se l'Italia perdesse queste caratterizzazioni così importanti dal punto di vista industriale, perderebbe una delle sue principali caratteristiche di credibilità internazionale, oltre che di rapporto tra il grande pubblico e queste produzioni e questi mondi creativi, che bisogna difendere da questi fenomeni insidiosi.
  Ricordo a voi tutti che, per fortuna, siamo tornati in una fase in cui la gente sta tornando numerosa anche al cinema, ma che questa è una filiera integrata; quindi se un prodotto, come ho detto prima, funziona al cinema, funziona nelle altre modalità di fruizione. Il che significa, per un anno che non è ai vertici delle classifiche come quello appena trascorso, che ben 70 milioni di persone sono andate al cinema in Italia e miliardi di persone hanno visualizzato nostri prodotti nelle altre modalità. È un aspetto popolare, sociale, culturale e, per l'appunto, industriale.
  La ringrazio.

  PRESIDENTE. Do la parola ai colleghi, anche collegati, che intendono intervenire per porre quesiti o formulare osservazioni.

  ILARIA CAVO. Signor presidente, approfittando della presenza di Francesco Rutelli, vorrei fare una piccola considerazione e poi, magari, anche una domanda. Sicuramente è da concordare sul fatto che la cultura deve essere considerata industria e che ciò non si può trascurare. Credo sia da rilevare che c'è la possibilità di considerarla industria e che molte regioni - e questo ci arriva anche dai fondi europei - sono riuscite a capirlo e stanno finanziando il sistema produttivo, delle produzioni, grazie proprio ai fondi che sono destinati alle attività produttive. Mi vengono in mente tutti i fondi FESR. Ci sono regioni che le hanno programmate nei fondi FESR. Vuol dire riconoscere - e credo che questo sia importante - un ruolo di aziende produttive a tutto il sistema culturale, di cui è stata, giustamente, sottolineata la rilevanza.
  Credo sia stato tracciato un quadro molto chiaro. Non ho capito una cosa, ma perché non si riesce, è troppo vasto il tema. Credo che questo sia uno dei settori più toccati dal problema dell'intelligenza artificiale. Sarebbe bene se si riuscisse ad avere una traccia di che cosa sarebbe necessario ulteriormentePag. 20 normare per la tutela di questo settore, che, a differenza degli altri, secondo me, ma non è l'unico, ha necessità di un'attenzione particolare.
  Siete imprese, ma siete imprese che rischiano di essere toccate più di altre da questa tematica. Chiedo se, però, ci sono anche delle opportunità. Altrimenti, rischiamo - e non è stato sempre questo il taglio degli altri interventi - di vivere l'intelligenza artificiale soltanto come un problema. Invece, è emerso chiaramente il tema dell'opportunità dell'intelligenza artificiale.
  Anche a livello occupazionale, quindi, la vedete soltanto come un rischio o anche come trasformazione di professioni?

  PRESIDENTE. Anch'io vorrei fare una domanda. Abbiamo visto la questione dei doppiatori, della vendita. Si percepisce che ci sarà una perdita di posti di lavoro in certi settori. Sicuramente nel vostro ancora di più. Siccome, quando esauriremo tutte le audizioni, faremo questa relazione conclusiva, vorremmo dare anche, in qualche modo, degli spunti a chi, poi, deve valutare se è regolare, non regolare, se partecipare a integrazioni o modifiche a livello europeo piuttosto che a livello più globale.
  Sono stati citati alcuni temi, come l'utilizzo dell'immagine, l'utilizzo di attori che nascono dall'intelligenza artificiale, ma non sono attori veri. Ovviamente lo stesso vale per i doppiatori. Il tema dell'intelligenza artificiale è che, da un lato, si autoalimenta e migliora costantemente. Quali sono le proposte? Questi temi, giustamente, possono rappresentare delle opportunità, ma spaventano anche, perché vuol dire un utilizzo improprio di una persona. Lei prima ha fatto l'esempio del filmato in cui lei perorava di venire in Italia, però avrebbe anche potuto essere un filmato in cui lei diceva delle cose orribili. Poi diventa anche difficile discolparsi. Siccome adesso siamo tutti interconnessi, ci sono i social, le chat e quant'altro, dal vostro particolare punto di vista, quali potrebbero essere le tutele, le proposte per una futura regolazione o per tutelare tutte queste situazioni in cui può finire una persona inconsapevolmente o comunque non volontariamente?

  FRANCESCO RUTELLI, presidente di Associazione nazionale industrie cinematografiche audiovisive e digitali ANICA. Grazie, presidente.
  Il primo argomento è importantissimo e riguarda il settore industriale, competenza della vostra Commissione. L'apporto delle regioni effettivamente è molto utile. Perché? Perché c'è una grandissima concorrenza internazionale. Faccio l'esempio degli Stati Uniti. Negli Stati Uniti i finanziamenti per attrarre produzioni cineaudiovisive non vengono erogati dallo Stato federale, ma dagli Stati, e c'è una battaglia senza quartiere, ma da parte di Stati che spesso vediamo nei titoli di coda, come la Georgia o il Texas, che non immaginiamo come leader del cinema, come possono essere la California o New York. È iniziata una sfida.
  In Italia, voi venite rispettivamente da regioni come la Liguria e la Lombardia, che non hanno bisogno, per la loro narrazione e percezione, di grande promozione: la promozione è stata sempre viva. Faccio un esempio banale. Ci sono stati molti anni in cui le produzioni indiane che raffiguravano tutta la catena dell'Himalaya venivano girate in Svizzera. Questo accadeva in un sistema economico, produttivo e di servizi collaudato. Noi dobbiamo attirare queste produzioni in Italia, perché c'è un mercato globale. Solo l'India produce cento film internazionali all'anno. Hanno iniziato a venire a girarli anche in Italia. È avvenuto di recente in Sardegna. Posso citare, senza far riferimento alle vostre rispettive regioni, la Sicilia, che ha avuto un enorme beneficio da serie televisive americane, che hanno portato un pazzesco beneficio in termini di turismo. Ne cito una trasmessa in Italia su Sky e HBO: The White Lotus. Ebbene, questa produzione ha portato sull'area di Taormina e circostanti enormi benefìci, tanto che gli alberghi principali registrano la piena occupazione, avendo persino quintuplicato il costo delle stanze più lussuose. Questo è un esempio pratico.
  Dobbiamo, però, pensare a tutte le implicazioni dei servizi. Noi dobbiamo favorire che in alcune regioni ci siano migliori servizi, affinché le produzioni si avvalgano di risorse locali. Questo vale non solo per Pag. 21Roma e Cinecittà. Questo è un altro aspetto importantissimo.
  Venendo alla tutela, io direi che, un po' come è avvenuto per la pirateria, adottare uno strumento di intervento immediato simile a quello per mettere fuori gioco gli atti di pirateria sarebbe una cosa importante, affidando all'AGCOM gli interventi. Se ci fosse uno strumento di early warning, di immediato controllo, verifica e potenziale intervento, questo sarebbe estremamente interessante. Voi sapete che il New York Times ha preso una posizione molto drastica, perché ha scoperto che soltanto nella principale di queste piattaforme, ChatGPT, c'era una quantità colossale di suoi contenuti presi gratuitamente.
  Vi segnalo che un'azienda italiana molto qualificata ha vinto l'appalto al Parlamento europeo per la traduzione simultanea, fatta con algoritmi, degli interventi dei parlamentari semplicemente avvalendosi di dati pubblici accessibili. Quindi, si sono procurati tutti i documenti pubblici delle Nazioni unite, tutti i documenti dell'Unione europea, dal Parlamento alle Commissioni, in modo da avere una dotazione espressiva corretta e completa. Quindi, quando voi vedete scorrere i sottotitoli di un deputato sloveno che parla e viene tradotto immediatamente in altre lingue, sappiate che lo fa un'azienda italiana, che si chiama Translated. Ha vinto questo appalto e lo ha vinto, ripeto, avvalendosi di dati pubblici in modo trasparente.
  Intanto, ho visto che Mediaset giustamente ha messo come titolo di coda dei suoi programmi un'allerta: chi volesse utilizzare questi dati non può farlo senza avere l'esplicito consenso. Questo criterio lo dovremmo ampliare e rendere sistematico. Quindi, strumenti di controllo, strumenti di verifica sull'immissione dei dati.
  Vengo ad un momento creativo, come lei ricordava. Faccio un esempio. Una cosa è una voce che effettua il doppiaggio per un videogioco nelle lingue dell'Asia. È fisiologico. Non hai bisogno di un attore, non togli lavoro a una voce autentica. Ineluttabilmente andrà così sui mercati internazionali. Ma in tutti i casi in cui c'è creatività, professionalità, direi unicità di espressione, lì dobbiamo riuscire a proteggere queste attività, sapendo che alcuni cambiamenti, presidente, saranno positivi, e torno, concludendo, a quello che avevo citato all'inizio ovvero la post produzione e gli effetti speciali. Noi avremo, in verità, anche molta produzione che si farà in studio. Per cui, tu hai delle immagini, che poi monti, senza bisogno di andare sulle Alpi a rappresentare scenari incontaminati, eccetera.
  In parte questo porterà dei nuovi posti di lavoro nella filiera tecnologica, ma certamente colpirà molti altri aspetti che ho citato. Quindi, occorre un livello di attenzione e di cura. L'utilizzo economico e anche il vantaggio commerciale in alcuni settori sarà ineludibile. È inutile che facciamo della retorica. Ci sarà, perché converrà farlo agli operatori. Ma una vigilanza sull'appropriazione indebita, sulla falsificazione, addirittura sulla deviazione dal reale contenuto e del protagonismo dei nostri interpreti e creatori ha bisogno, probabilmente, di uno strumento di controllo specifico. Non mi permetto di segnalare a voi quale, attraverso quali istituzioni. Ho visto che prima di me ha parlato il presidente dell'Autorità della privacy. Si può pensare all'AGCOM o ad altri strumenti che, su mandato del legislatore e con il controllo del Parlamento, verifichino, abbiano dei sensori in tempo reale su che cosa sta avvenendo. Indubbiamente, ci troviamo di fronte non a una piccola onda, ma potenzialmente, presidente, a delle ondate che possono travolgere interi settori creativi.
  È molto importante la vostra indagine, quindi, perché riguarda l'industria, le attività produttive, il lavoro. Mi sono permesso di aggiungere alcuni concetti che riguardano le aziende creative, che hanno sempre fatto la forza dell'Italia, quindi dobbiamo insieme proteggerle.

  PRESIDENTE. Non essendoci richieste di intervento, ringrazio l'ospite intervenuto e dichiaro conclusa l'audizione.

Audizione di rappresentanti di Hewlett Packard Enterprise

  PRESIDENTE. L'ordine del giorno reca, ai sensi dell'articolo 144, comma 1, del Pag. 22Regolamento, l'audizione di rappresentanti di Hewlett Packard Enterprise nell'ambito dell'indagine conoscitiva sull'intelligenza artificiale: opportunità e rischi per il sistema produttivo.
  Invito chi interviene a volerlo fare sinteticamente, in modo da lasciare più spazio possibile alle domande dei commissari, riservando gli ulteriori approfondimenti ad un eventuale contributo scritto, che verrà volentieri acquisito ai lavori della Commissione, focalizzandosi sull'oggetto dell'indagine come definito dal programma.
  Do la parola a Marco Fabriani, direttore pubblica amministrazione media di Hewlett Packard Enterprise, ricordando che il tempo complessivo a disposizione è di circa otto minuti.

  MARCO FABRIANI, direttore pubblica amministrazione media di Hewlett Packard Enterprise. Buongiorno a tutti. Grazie, presidente e onorevoli, della possibilità di essere auditi su questo tema molto importante per noi.
  Due parole sull'azienda che rappresento. Hewlett Packard Enterprise è un'azienda multinazionale americana, ha un fatturato che supera gli 8 miliardi di dollari e ha una grande prevalenza nel mondo dell'intelligenza artificiale. Il motivo per cui dico questo è che, quando si parla di intelligenza artificiale, dietro c'è sempre un'enorme capacità di calcolo, enorme capacità di calcolo che viene espressa attraverso una tecnologia che si chiama «high performance computing», che noi rappresentiamo come leader del mercato. Infatti, sei dei top dieci supercomputer o macchine di supercalcolo sono sotto il controllo di Hewlett Packard Enterprise. Questo è il motivo per cui siamo rilevanti nel mercato dell'IA.
  Vengo adesso al punto dell'audizione di oggi. Abbiamo una partnership a livello mondiale con una start up tedesca, che si chiama Aleph Alpha, che ci permette sostanzialmente di portare questi modelli dell'intelligenza artificiale a tutti i nostri clienti, soprattutto nelle aziende di commercio, quindi di attività produttive, e del turismo.
  Io sono abbastanza pratico, per cui vi faccio un esempio giusto per darvi un'idea di quello che l'intelligenza artificiale può dare. Dal nostro punto di vista ci sono quattro opportunità che l'intelligenza artificiale ci può dare. La prima è sicuramente l'aumento dell'efficienza produttiva delle aziende. La seconda è il fatto di ridurre i costi operativi di queste aziende. Ad esempio, il fatto di utilizzare una manutenzione predittiva di una macchina utensile ci permette di ridurre i costi di quell'azienda. La terza è il miglioramento della qualità del prodotto, perché se noi riusciamo a utilizzare questi modelli di intelligenza artificiale riusciamo a migliorare la qualità del prodotto. La quarta è il miglioramento nella gestione delle scorte e la personalizzazione del prodotto stesso. Tutte le aziende produttive hanno questo tipo di necessità.
  Faccio un esempio, come dicevo prima, che permette di capire meglio. Cercherò di essere il più semplice possibile, affinché la Commissione possa capire. Prendiamo un'azienda manifatturiera del mercato lombardo o triveneto, che è anche una nostra referenza. Questa azienda sostanzialmente cosa fa? Costruisce o progetta su commessa delle lamine d'acciaio. Queste lamine d'acciaio tipicamente vengono tagliate con una macchina utensile particolare, che utilizza un raggio laser per tagliare l'acciaio nel modo più preciso possibile. Ebbene, siccome la precisione deve essere intorno al millesimo di millimetro, se la precisione non è così perfetta, quella lamina probabilmente verrà scartata. Quindi, significa una diminuzione della produzione di lamine dal punto di vista di quell'azienda, che poi è il core business dell'azienda stessa. Allora che cosa può fare l'intelligenza artificiale in questo caso? Semplicemente raccoglie tutti i dati principali, le metriche vitali della macchina utensile, quindi di questa macchina che taglia, attraverso un raggio laser, queste lamine d'acciaio che si appoggiano sul tappeto su cui vengono fatte girare, e si accorge, attraverso i dati che noi gli forniamo, del fatto che c'è, ad esempio, una porosità del materiale, che la lamina d'acciaio non è così perfetta, che il taglio non è così perfetto. Tutto questo lo riesce a stabilire in base ai Pag. 23dati storici presenti all'interno della macchina stessa.
  Questa mole di dati viene alimentata in un motore di intelligenza artificiale che come risposta fornisce in anticipo all'operatore che sta davanti alla macchina utensile l'informazione che questa macchina laminatrice non sta tagliando nel modo in cui dovrebbe tagliare. Quindi, abbiamo la possibilità di migliorare la produzione e l'efficienza produttiva del sistema stesso, perché grazie all'intelligenza artificiale riusciamo a tagliare le lamine con una perfezione che prima non era possibile.
  Abbiamo visto che in questa tipologia di aziende tipicamente l'efficienza è intorno al 15 per cento. Quindi, miglioriamo del 15 per cento la produttività dell'azienda, riduciamo del 25-30 per cento gli scarti che l'azienda avrebbe nella produzione di queste lamine. Questo esempio che ho fatto, ovviamente, vale per tutte le macchine utensili in generale. Ho portato come esempio questa azienda del lombardo, del Triveneto, ma in realtà può essere applicata a qualsiasi tipo di industria o commercio. Penso all'industria delle scarpe, penso alle industrie locali, che hanno proprio nel loro business principale la possibilità di creare e di attivare, sostanzialmente, questo tipo di tecnologie.
  Questo aumento di produzione, questo fatto, ad esempio, di migliorare i tempi di progettazione, quindi di poter passare da un concetto, da un'idea, al prototipo, riducendo del 50 per cento il tempo grazie ai motori di intelligenza artificiale, è un'altra estensione, un altro modo di vedere come le aziende del commercio e del turismo, ma in generale tutte le aziende produttive nel mercato, le piccole e medie imprese possono migliorare la loro produttività.
  Una cosa che mi preme sottolineare è il fatto che aumenta anche la soddisfazione del cliente. Il fatto che io produca un prodotto personalizzato di alta qualità (penso alle scarpe) e riesca a farlo in tempi più brevi dà una migliore esperienza al cliente finale, che deve indossare quel tipo di indumento.
  Sono saltato dal mondo della manifattura al mondo della moda giusto per dare un'idea di come questa evoluzione dell'intelligenza artificiale, in realtà, porti un beneficio in quasi tutti i settori produttivi.
  Vorrei concludere la mia breve audizione, sostanzialmente, portando a fattor comune due considerazioni, che secondo me sono importanti e che abbiamo messo nella nostra memoria (vedi allegato 4). Nella memoria vi lasceremo tutta una serie di referenze, sia in ambito enterprise, quindi di grandi aziende, sia più piccole, sia nel settore privato che nel settore pubblico. Leggendo questa nota, quindi, potreste capire come si può effettivamente migliorare la produttività di queste aziende.
  Due osservazioni, dicevo, per concludere la mia audizione. La prima è il fatto che bisogna monitorare continuamente la qualità dei dati che arrivano da queste macchine utensili o in generale. Se non si fa questo tipo di azione, il rischio è che il risultato che il motore di intelligenza dà non sia valido. Quindi, dà un'informazione che il controllo umano è in grado di percepire, ma se l'operazione è talmente ripetitiva e automatizzata probabilmente l'essere umano non riesce a controllarla. Noi siamo, ovviamente, per la centralità dell'uomo, per la supervisione dell'uomo sulla macchina.
  Riteniamo importante che l'AI Act sia stato approvato nei giorni scorsi e siamo onorati di aver contribuito ai lavori di queste Commissioni. Abbiamo portato a fattor comune certe idee, certi concetti sull'intelligenza artificiale, che noi definiamo princìpi etici, che probabilmente avete già sentito in altre audizioni, che sono l'equità, la trasparenza del modello, la privacy, la sicurezza dei dati e l'inclusività, sicuramente. Io sostengo, però, che la cosa più importante è la consapevolezza, la responsabilità. Se riusciamo a essere responsabili e consapevoli che quel determinato algoritmo che abbiamo scritto per quel modello di intelligenza artificiale sia stato scritto con una responsabilità dietro, probabilmente certi rischi che oggi si vedono dall'evoluzione della tecnologia dell'intelligenza artificiale non si vedrebbero.
  Concludo dicendo, sulla qualità del dato, che è importante, in ogni modello di intelligenzaPag. 24 artificiale, dire quali sono le fonti. Purtroppo, oggi sul mercato ci sono applicazioni di intelligenza artificiale che non riportano le fonti, quindi non si è in grado di risalire a quale è stato il problema che ha generato quel risultato pessimo, che non ha potuto portare i benefici che uno si aspettava.
  Con questo vi ringrazio. Resto a disposizione per ogni vostra domanda.

  PRESIDENTE. Non essendoci richieste di intervento, ringrazio l'ospite intervenuto. Autorizzo la pubblicazione in allegato al resoconto stenografico della seduta odierna della documentazione consegnata dai rappresentanti di Hewlett Packard Enterprise (vedi allegato 4) e dichiaro conclusa l'audizione.

Audizione di Paolo Marzano, docente di diritto della proprietà intellettuale presso il dipartimento di giurisprudenza della Luiss Guido Carli di Roma.

  PRESIDENTE. L'ordine del giorno reca, ai sensi dell'articolo 144, comma 1, del Regolamento, l'audizione di Paolo Marzano, docente di diritto della proprietà intellettuale presso il dipartimento di giurisprudenza della Luiss Guido Carli di Roma, nell'ambito dell'indagine conoscitiva sull'intelligenza artificiale: opportunità e rischi per il sistema produttivo.
  Invito chi interviene a volerlo fare sinteticamente, in modo da lasciare più spazio possibile alle domande dei commissari, riservando gli ulteriori approfondimenti ad un eventuale contributo scritto, che verrà volentieri acquisito ai lavori della Commissione, focalizzandosi sull'oggetto dell'indagine come definito dal programma.
  Do la parola a Paolo Marzano, ricordando che il tempo complessivo a disposizione è di circa otto minuti.

  PAOLO MARZANO, docente di diritto della proprietà intellettuale presso il dipartimento di giurisprudenza della Luiss Guido Carli di Roma. Buonasera, presidente. Grazie a tutti voi per l'opportunità di sedermi qui con voi e fare alcune riflessioni in materia di brevettabilità delle invenzioni industriali realizzate per il tramite dell'artificial intelligence.
  Il tema della tutelabilità delle opere d'autore generate dall'intelligenza artificiale ha ricevuto maggiore attenzione in questi ultimi due anni rispetto a quanto successo per il limitrofo settore delle invenzioni industriali. Questo è senz'altro dovuto al fatto che, nel corso dell'ultimo anno e forse biennio, sono stati numerosi i contenziosi che negli Stati Uniti sono iniziati tra autori, editori e produttori nei confronti delle piattaforme di intelligenza artificiale. Sotto Natale abbiamo avuto conoscenza del contenzioso del New York Times contro ChatGPT. Abbiamo avuto, a luglio dell'anno scorso, il famoso sciopero degli autori di Hollywood, SAG-AFTRA (Screen Actors Guild-American Federation of Television and Radio Artists), che ha paralizzato le produzioni cinematografiche, sciopero iniziato da soggettisti e sceneggiatori contro l'utilizzo dell'intelligenza artificiale nel settore delle produzioni cinematografiche.
  Un pochino meno noto, perché non tanto assurto agli onori della cronaca, è il tema della brevettabilità delle invenzioni industriali realizzate utilizzando l'intelligenza artificiale. Non siamo più, quindi, nel settore del copyright, ma del patent, della brevettabilità. Probabilmente il tema non è così scottante o ancora non lo è anche in ragione del fatto che l'opera dell'ingegno rispetto all'invenzione industriale è un bene immateriale leggermente diverso. L'opera dell'ingegno è il riflesso dell'anima dell'autore, delle sue convinzioni, delle sue sensazioni, delle sue opinioni, così come poi quest'opera viene a sua volta interpretata da un artista. Quindi, nel settore del diritto d'autore è molto più facile che ci si ricordi dell'autore di una musica, del regista di un'opera cinematografica e di artisti come cantanti e attori o attrici. Quanto è facile per noi, invece, ricordare il nome dell'inventore di una molecola di un farmaco, o l'inventore di un sistema che consente a un'autovettura di tenere la carreggiata o addirittura sapere se il conducente ha un colpo di sonno? È più facile che noi si Pag. 25ricordi il nome della casa farmaceutica o dell'industria automobilistica.
  La figura dell'inventore solitario che assurge agli onori della cronaca ormai è un po' romantica e appartenente al passato. È più facile che si conosca chi ha finanziato l'attività di ricerca tecnologica. È più facile che io mi ricordi il nome della Apple, della Samsung o della Tesla piuttosto che... Dite voi. La figura dell'inventore è un pochino meno chiara e netta. Eppure, tanto nel settore del diritto d'autore quanto nel settore delle invenzioni industriali, si dice che non si può avere accesso alla protezione offerta dal diritto d'autore o dai brevetti allorquando l'opera dell'ingegno o l'invenzione non siano state realizzate da una persona fisica.
  È il caso di DABUS. DABUS è una tecnologia di intelligenza artificiale che ha prodotto due invenzioni. Faccio appello agli appunti che ho preso, perché va un attimo descritta. La prima di queste invenzioni era un contenitore per alimenti costruito utilizzando la geometria cosiddetta «frattale». La geometria di questo packaging del prodotto alimentare consente il riscaldamento e la conservazione del calore del cibo molto efficacemente. La seconda invenzione creata da questo sistema DABUS è un faro lampeggiante per attirare l'attenzione in caso di emergenze. Lo sviluppatore di questo software di artificial intelligence, Stephen Thaler, va a depositare domanda di brevetto di queste due invenzioni presso una serie di uffici brevetti e marchi in giro per il mondo: Stati Uniti, Inghilterra, Sudafrica, Australia. Tutti gli uffici brevetti e marchi, con l'eccezione del Sudafrica, rigettano la domanda, perché nella domanda di brevetto viene indicato come inventore il software di intelligenza artificiale. Gli uffici brevetti dicono che deve essere una persona fisica, non un software e rifiutano la domanda di brevetto. Così come avverrebbe per un'opera dell'ingegno: chi ha creato questo scritto? Chi ha creato questo quadro? Chi ha realizzato questa musica? Un software di intelligenza artificiale? Allora non è proteggibile con il diritto d'autore.
  I due sistemi vanno in parallelo, ma, secondo una ricerca fatta dall'Istituto della proprietà industriale svizzera e l'Università di Zurigo nel 2023, in ragione delle decisioni per il caso DABUS, molte grandi società non stanno più ricorrendo al sistema della domanda di brevetto e fanno uso del parallelo sistema del segreto industriale, per proteggere - con il segreto industriale - le proprie invenzioni. Uno potrebbe dire: perfetto, il problema, quindi, non c'è. Attenzione. Con la presentazione di una domanda di brevetto, il brevettante deve fare disclosure, nella domanda, della descrizione della propria invenzione. Accedere alla domanda e poter leggere la descrizione dell'altrui invenzione mi consente di imparare, mi consente di apprendere, mi consente di studiare, ricercare e poi, in futuro, a mia volta, presentare un'ulteriore domanda di brevetto che perfeziona, migliora quello già da altri in passato depositato. Questo è il progresso tecnologico. Studio le altrui domande, miglioro, ricerco e vado avanti. Se in ragione del rifiuto della brevettabilità di una domanda generata dall'intelligenza artificiale si va verso un sistema di segreto industriale, non c'è più disclosure dell'invenzione. È difficile per gli altri competitor apprendere, quindi migliorare. C'è il rischio che ci sia un impatto sul progresso tecnologico.
  Cosa fare? Ci vorrebbe la sfera di cristallo. La situazione è ancora prematura. Gran parte delle invenzioni industriali fa uso dell'artificial intelligence come ausilio dell'uomo inventore per sviluppare la nuova invenzione, con il risultato che l'invenzione è brevettabile perché è ancora attribuibile a un essere umano. Ma quando nel medio e lungo termine si dovesse arrivare a un sistema puro di invenzioni generate unicamente da software di intelligenza artificiale, il tema si porrà. Vorremo un sistema che veda camminare in parallelo invenzioni industriali degli esseri umani e invenzioni industriali delle macchine? Avremo un'efficace accelerazione del progresso tecnologico? Avremo un progresso tecnologico unicamente nelle mani delle macchine, che saranno troppo avanti rispetto all'intelletto dell'uomo? Sono tutte domande che è importantePag. 26 porsi, soprattutto per un Paese come il nostro che cammina prevalentemente sulle gambe delle piccole e delle medie imprese, che spesso presentano geniali domande di brevetto. Se il brevetto dovesse in futuro diventare appannaggio delle grandi società dotate di grandi laboratori e di grandi capacità di finanziare attività di ricerca tecnologica, potremmo trovarci come tessuto industriale italiano in difficoltà.
  Lascio una serie di dubbi e di domande sul tavolo della Commissione, perché è un tema tutto da sviscerare e da approfondire. Nessuno a livello universale ha una risposta. Porsi intanto la domanda, però, è importante.
  Grazie.

  PRESIDENTE. Grazie a lei.
  Non essendoci richieste di intervento, faccio io una domanda. Cosa succede a chi ha chiesto di registrare un brevetto realizzato con l'intelligenza artificiale e non lo segnala? Lo chiedo perché il tema è lasciato così. Lei prima citava il caso di un brevetto fatto in Sudafrica.

  PAOLO MARZANO, docente di diritto della proprietà intellettuale presso il dipartimento di giurisprudenza della Luiss Guido Carli di Roma. Il Sudafrica è l'unico che ha accettato il brevetto. Tutto il resto del mondo, Australia, Inghilterra...

  PRESIDENTE. Non l'hanno accettato. Però, questo qui, quando l'ha depositato, ha detto che ha realizzato quel brevetto con l'intelligenza artificiale.

  PAOLO MARZANO, docente di diritto della proprietà intellettuale presso il dipartimento di giurisprudenza della Luiss Guido Carli di Roma. Indica come inventore la sua macchina DABUS.

  PRESIDENTE. Ma se, invece, avesse indicato se stesso, sarebbe stato ugualmente brevettato?

  PAOLO MARZANO, docente di diritto della proprietà intellettuale presso il dipartimento di giurisprudenza della Luiss Guido Carli di Roma. Sì.

  PRESIDENTE. Sarà possibile un'attività di controllo? Oppure a quel punto è impossibile? È lasciato a una mera dichiarazione o autodichiarazione?

  PAOLO MARZANO, docente di diritto della proprietà intellettuale presso il dipartimento di giurisprudenza della Luiss Guido Carli di Roma. Sì, però c'è il rischio che attraverso il controllo emerga il fatto che l'invenzione industriale non è attribuita all'attività di un determinato inventore. Quindi, il controllo è sempre possibile. Ecco perché, per evitare situazioni di difficoltà, c'è chi sta ipotizzando un proxy, l'individuazione di un rappresentante persona fisica in luogo della macchina, anche e soprattutto perché per alcuni l'indicazione dell'inventore è più che altro una formalità nella domanda di brevetto, atteso che molto spesso il diritto allo sfruttamento economico spetta alla società che ha finanziato l'attività di ricerca. È raro che il chimico che lavora, ad esempio, per Bayer abbia la titolarità di un farmaco. Spetta, più che altro, alla casa farmaceutica.
  Il tema è evitare che chi investe e sviluppa stia lontano per evitare i rischi di bocciature o di indagini che creino delle difficoltà. Spingere, comunque, verso il deposito della domanda significa garantire, sempre e costantemente, la disclosure dell'invenzione. Questo è il tema.

  PRESIDENTE. Non essendoci altre richieste di intervento, ringrazio l'ospite intervenuto e dichiaro conclusa l'audizione.

Audizione, anche in videoconferenza, di rappresentanti delle organizzazioni sindacali CGIL, CISL, UIL e UGL.

  PRESIDENTE. L'ordine del giorno reca, ai sensi dell'articolo 144, comma 1, del Regolamento, l'audizione, anche in videoconferenza, di rappresentanti delle organizzazioni sindacali CGIL, CISL, UIL e UGL nell'ambito dell'indagine conoscitiva sull'intelligenzaPag. 27 artificiale: opportunità e rischi per il sistema produttivo.
  Invito chi interviene a volerlo fare sinteticamente, in modo da lasciare più spazio possibile alle domande dei commissari, riservando gli ulteriori approfondimenti ad un eventuale contributo scritto, che verrà volentieri acquisito ai lavori della Commissione, focalizzandosi sull'oggetto dell'indagine come definito dal programma.
  Do la parola a Christian Ferrari, segretario confederale CGIL, Giorgio Graziani, segretario confederale CISL, Bianca Cuciniello, funzionaria UIL, e Stefano Conti, segretario nazionale UGL telecomunicazioni, ricordando che il tempo complessivo a disposizione è di circa cinque minuti ciascuno.

  CHRISTIAN FERRARI, segretario confederale CGIL (intervento in videoconferenza). Signor presidente, l'introduzione dei sistemi di intelligenza artificiale in tutti i settori produttivi ha un impatto paragonabile all'introduzione della meccanizzazione delle industrie. Il Fondo monetario internazionale ci dice che gli effetti ricadranno sul 60 per cento dei lavoratori delle economie avanzate. Questa trasformazione, a nostro giudizio, va governata, per cogliere le opportunità e per ridurre i rischi.
  Soprattutto, pensiamo sia necessario intervenire sui settori più fragili, come le PMI e le imprese artigiane, e sulle attività del terziario e delle professioni. L'e-commerce, le piattaforme digitali hanno concentrato il potere nelle mani di poche multinazionali, che investono miliardi nelle nuove tecnologie e che hanno riscritto le regole del commercio e dei processi produttivi. Le imprese di piccola dimensione non sono in grado di reggere questa concorrenza. Sono, quindi, necessarie politiche industriali, a livello soprattutto continentale.
  Al cuore degli interventi dell'Unione europea ci sono le fabbriche di intelligenza artificiale, che sono - come è noto - ecosistemi basati sui supercomputer, per rispondere proprio alle esigenze di PMI e start up e per dare loro un accesso privilegiato a questa rete, beneficiando anche di dati, algoritmi e potenza di calcolo. Particolarmente importante la possibilità per le imprese di accedere al Common European Data Spaces. Horizon Europe e il programma Europa Digitale genereranno un ulteriore investimento pubblico-privato di circa 4 miliardi, da qui fino al 2027.
  È stata, inoltre, annunciata anche l'iniziativa GenAI for EU per sostenere lo sviluppo verticale dell'intelligenza artificiale nel settore privato e pubblico. Ma siamo solo a un primo passo in Europa, se lo paragoniamo ai 10 miliardi di investimenti della sola Microsoft o ai 26,7 miliardi della Cina. Ammesso e non concesso che l'occupazione non si ridurrà, sicuramente si trasformerà profondamente.
  Gli strumenti di intelligenza artificiale aumentano l'efficienza delle imprese, comprimendo i tempi di lavoro e superando interi processi, che prima erano assegnati al lavoro umano. È, quindi, indispensabile intervenire su organizzazione del lavoro, professionalità e formazione. Non si corre solo il rischio di sostituire alcune attività ripetitive di media e bassa complessità, ma che intere catene del valore e settore siano diversamente localizzate.
  Insomma, in assenza di politiche industriali, saranno le grandi multinazionali a determinare la nuova divisione del lavoro, con un probabile allargamento delle disuguaglianze, una compressione dei salari, una riduzione delle tutele, causati dalla subordinazione alle piattaforme digitali, la cui pervasività va limitata e normata. La normativa europea ha regolamentato alcuni aspetti, ma la regolazione del lavoro è ancora arretrata e articolata tra i diversi Paesi comunitari. Ad esempio, nell'ultimo regolamento europeo non si menziona la tutela collettiva dei lavoratori e non si prevede alcun ruolo delle parti sociali. Non si fa, poi, accenno ad authority di controllo legale-amministrativo. Direi che svolgeranno un ruolo regolatorio AGCM e AGCOM, che però oggi non sono nelle condizioni organizzative di poter svolgere pienamente una funzione di tale tipo.
  Molte applicazioni dell'intelligenza artificiale sono rivoluzionarie, miglioreranno la vita delle persone, il tema fondamentale, però, è come si evita che il plusvalore generato aumenti disuguaglianze e aumenti Pag. 28la concentrazione di ricchezza e di potere. Per questo, noi chiediamo un intervento politico-normativo finalizzato al rafforzamento del ruolo contrattuale delle parti sociali per la valutazione di impatto, per la revisione dei modelli organizzativi, per intervenire su professioni, su formazione, su salario e su durata della prestazione lavorativa.
  C'è bisogno, in estrema sintesi, non di incentivi generalizzati alle imprese, magari anche senza particolari condizionalità, ma di politiche industriali che indirizzino lo sviluppo, che spingano per processi formativi delle nuove professioni e che garantiscano tutele, ammortizzatori sociali e politiche attive, per poter accompagnare questo percorso sulla base del principio di una giusta transizione del lavoro.
  Questo è in estrema sintesi ciò che pensiamo, presidente.

  GIORGIO GRAZIANI, segretario confederale CISL. Grazie.
  È un tema particolarmente complesso, quindi in poco tempo si fa fatica, però manderemo la memoria più complessivamente intesa.
  Apprezziamo l'approccio proattivo del Parlamento su un tema solo recentemente emerso, che riteniamo sia funzionale a ciò che a livello europeo è considerata la famosa Industria 5.0, ovvero lo sviluppo di una tecnologia al servizio della persona e per la promozione della sostenibilità in tutte le sue dimensioni.
  La tecnologia in sé non è né buona né cattiva, tutto dipende da come viene orientata e, quindi, da come ci approcceremo in termini di responsabilità. Da ciò ne deriva che pensiamo che lo sviluppo di un'intelligenza artificiale non possa essere lasciato esclusivamente alle regole del mercato e richieda regole, invece, definite e condivise con tutti i portatori di interesse, chiaramente a partire dalle parti sociali, con l'obiettivo di favorirne lo sviluppo e minimizzarne i rischi.
  Pensiamo che l'introduzione dell'intelligenza artificiale nei processi produttivi possa far parte di quel patto per l'industria italiana che abbiamo lanciato da diverso tempo, per evitare che ci sia ancora la possibilità di un ulteriore ciclo di deindustrializzazione del Paese.
  Vengo alla formulazione di alcune proposte. Intanto, il primo riferimento per noi deve essere il Codice etico per l'intelligenza artificiale, già definito da un gruppo di esperti incaricato dalla Commissione europea nel 2018, che prevedeva esplicitamente che l'intelligenza artificiale non potesse mai danneggiare gli esseri umani e la natura e dovesse operare in favore dell'accrescimento dell'autonomia delle persone. Questo è in linea, in verità, con quanto espresso dal nuovo presidente della Commissione sull'intelligenza artificiale, il professor Paolo Benanti, che sostiene che sia necessario avere a riferimento un'«algoretica» per l'intelligenza artificiale del presente e del futuro. Costruire un compromesso socialmente sostenibile e virtuoso tra le enormi potenzialità dell'intelligenza artificiale, il cui sviluppo in campi promettenti, come la medicina e la prevenzione, non può essere compresso, e la sequela di questioni etiche e di impatto che essa pone. Prevedere una regolazione che tratti aspetti particolarmente dedicati dell'intelligenza artificiale, nello specifico il rispetto della privacy, l'attendibilità delle informazioni, il diritto alla spiegazione dei cittadini, dei lavoratori e di tutti gli utenti, o comunque tutte le persone interessate ai processi decisionali assunti, il diritto di informazione e consultazione dei lavoratori e delle lavoratrici e dei loro rappresentanti nel momento in cui questi elementi di intelligenza artificiale dovessero essere utilizzati nella gestione dei rapporti di lavoro. Anticipare il recepimento dell'AI Act da parte delle imprese, delle pubbliche amministrazioni, sviluppando l'AI PACT anche attraverso l'inserimento di uno strumento nella prima parte dei contratti collettivi (quindi, lo sviluppo anche di sistemi premiali dedicati). Recepire l'accordo quadro europeo sulla trasformazione digitale, prevedendo l'applicazione coerente in tutti i contesti nei quali si procede con l'introduzione delle nuove tecnologie digitali, compresa l'intelligenza artificiale (a quello scopo, riteniamo opportuno che si vada velocemente anche all'approvazione, da parte del Parlamento, del disegno di Pag. 29legge sulla partecipazione dei lavoratori alle imprese; peraltro, noi siamo tra i promotori). Sviluppare la ricerca pubblica sull'AI spiegabile, ovvero sulla messa in trasparenza del senso dei calcoli sulla base dei quali gli algoritmi sono sviluppati, nella consapevolezza che in questo campo non è facile guardare dentro il cofano delle macchine (in questo modo, però, si potrebbe regolamentare o, comunque, realmente negoziare l'algoritmo). Inserire a pieno titolo la valutazione dei rischi delle aziende in tutti gli elementi ascrivibili all'introduzione dell'intelligenza artificiale nei luoghi di lavoro. Istituire un diritto individuale alla formazione in tutte le scuole, di ogni ordine e grado, a partire da tutte le scuole, ma, chiaramente, anche alla formazione sull'intelligenza artificiale dei lavoratori e delle lavoratrici, che potrebbe essere, in questo caso, stabilita, invece, dalla contrattazione collettiva. È fondamentale che ognuno sia consapevole di quello che gli succede, quali sono le condizioni e le competenze necessarie per affrontare una rivoluzione così forte e trasversale.
  In definitiva, e concludo, prevedere, quindi, una revisione organica del Programma strategico sull'intelligenza artificiale nazionale 2022-2024, prevedendo il coinvolgimento delle parti sociali in modo partecipato, che fino a questo momento, invece, non hanno avuto voce in capitolo. Chiaramente, chiediamo protagonismo.

  BIANCA CUCINIELLO, funzionaria UIL. Signor presidente, invieremo in seguito un nostro documento completo.
  Come UIL apprezziamo l'iniziativa, tesa anche a individuare le opportunità, le criticità e i rischi che l'implementazione dell'intelligenza artificiale comporta all'interno dei processi produttivi aziendali, che, a nostro parere, deve attenzionare gli impatti che ne derivano sull'organizzazione del lavoro e sul mercato del lavoro.
  L'adozione dell'intelligenza artificiale, infatti, spinge fortemente a cambiare le condizioni di accesso al mercato e a promuovere lo sviluppo di nuovi servizi, con la pressione alla disponibilità dei dati e la pressione sull'organizzazione del lavoro. La velocità di questi cambiamenti, la loro portata globale, combinata con la loro altissima penetrazione tra gli utenti, mettono sotto pressione la capacità delle organizzazioni umane di adattarsi.
  In questo contesto emerge chiaramente che l'incertezza sulla dinamica tra perdita di posti di lavoro e creazione di posti di lavoro richiederà ai Governi e alle parti sociali di prepararsi ad affrontare le sfide associate all'applicazione dell'intelligenza artificiale e i suoi effetti indesiderati sull'occupazione, sulla protezione del lavoro e sulle imprese.
  La trasformazione digitale offre, sì, nuove opportunità di lavoro e nuovi modi di organizzare il lavoro, ma la transizione comporta sfide e rischi per i lavoratori e per le imprese, poiché alcune mansioni scompariranno e molte altre cambieranno. Ciò richiede di anticipare il cambiamento, fornendo le competenze necessarie ai lavoratori e alle imprese. Non in tutte le aziende sarà possibile riconvertire i lavoratori che verranno impattati dall'adozione dell'intelligenza artificiale, ma anche laddove ciò sarà possibile si innescherà un graduale aumento della popolazione inoccupata, perché verranno soppresse alcune mansioni. La conseguente richiesta di nuove professionalità non invertirà questo fenomeno, perché riguarderà nuove professionalità come data scientist, esperti di cloud computing, di cybersecurity e programmatori. Non c'è bisogno di un numero limitato di queste figure e sono difficilmente reperibili sul mercato del lavoro.
  Con l'intelligenza artificiale e i big data emergono nuove problematiche nell'utilizzo dei dati, in particolare dei dati personali, nella gestione algoritmica del lavoro e delle risorse umane, e i loro impatti sul rispetto della dignità e dell'integrità dei lavoratori.
  Richiediamo un approccio antropocentrico ed etico per l'adozione dell'intelligenza artificiale. Gli esseri umani devono mantenere il controllo e non sono le applicazioni di intelligenza artificiale che devono prendere il controllo delle aziende e privare i datori di lavoro e i lavoratori delle rispettive prerogative e responsabilità in termini di organizzazione del lavoro.Pag. 30
  È necessario controllare eventuali distorsioni nel sistema con un meccanismo di monitoraggio continuo, per evitare discriminazioni e rispettare i diritti fondamentali. Inoltre, i sistemi di intelligenza artificiale per noi devono essere progettati e gestiti conformemente alla legislazione vigente, compreso il regolamento generale sulla protezione dei dati, per garantire la riservatezza dei dati e preservare la dignità dei lavoratori.
  Abbiamo bisogno di conoscere gli algoritmi che sono alla base dell'intelligenza artificiale, perché gli algoritmi devono essere progettati nel rispetto del quadro normativo e devono essere al servizio della società.
  Gli algoritmi non sono altro che codice scritto da esseri umani, in particolare uomini, che stanno diventando sempre più complessi. Se l'azienda si affida a esperti informatici, corre il rischio di rimanerne ostaggio, e allo stesso tempo si perdono le competenze interne dei dipendenti.
  Devono essere affrontate anche altre questioni, come gli investimenti necessari per realizzare infrastrutture tecnologiche in tutto il territorio nazionale, per una reale inclusione digitale al servizio delle PMI e per garantire i diritti di cittadinanza nel senso più ampio del termine. Crediamo che questa inclusione digitale non possa essere fatta solo con l'intelligenza artificiale, ma dalla professionalità e dall'intelligenza emotiva, e questo può essere fatto solo con il lavoro umano, eventualmente supportato dalla tecnologia.
  Come UIL apprezziamo l'approccio legislativo dell'Unione europea con l'AI Act e riteniamo che il dialogo sociale tripartito e la contrattazione collettiva abbiano un ruolo decisivo nella qualità dei processi di trasformazione digitale delle imprese e nel loro adattamento alla realtà dei contesti e al capitale umano.
  Diventa senza dubbio fondamentale l'instaurazione di un dialogo sociale tecnologico tripartito, al fine di gestire preventivamente tutte le criticità e i rischi e per evitare un'anarchia digitale che, invece di portare progresso, rischierebbe di creare un nuovo medioevo digitale.
  Per noi l'intelligenza artificiale deve avere l'uomo al centro e lo sviluppo sostenibile all'orizzonte. Grazie.

  STEFANO CONTI, segretario nazionale UGL telecomunicazioni. Buon pomeriggio. Grazie per questa convocazione, che riteniamo molto importante, in quanto per la prima volta vengono convocate anche le parti sociali.
  Focalizziamo subito il discorso sull'intelligenza artificiale sul mondo del lavoro, che ovviamente è l'argomento per noi principale, anche se l'intelligenza artificiale copre ormai una molteplicità di interessi che va attenzionata in tutti i suoi aspetti.
  Con riferimento al mondo del lavoro, siamo altamente preoccupati, perché ormai è ben chiaro che la forbice tra lavori nuovi che vengono creati e lavori che vengono colmati dall'intelligenza artificiale è una forbice negativa. Quindi, la vulgata iniziale secondo cui sarebbero stati creati tanti nuovi posti di lavoro quanti se ne sarebbero persi crediamo che ormai sia del tutto inattendibile, come d'altronde avevamo ampiamente detto fin dall'inizio. Lo vediamo in tanti settori. Faccio un esempio per tutti, il settore dei call-center, dove questo problema lo stiamo affrontando già da qualche tempo e purtroppo ci troveremo ad affrontarlo nei prossimi mesi in maniera sempre più invasiva.
  Come provare a governare questo fenomeno? Del resto, ogni giorno esso assume una connotazione sempre più invasiva e sempre più massiva, comportando ovviamente anche dei benefìci. Questo deve essere ben chiaro. L'intelligenza artificiale, infatti, in alcuni settori è altamente innovativa e importante per la vita di tutti noi. Sul mondo del lavoro, ripeto, abbiamo qualche dubbio. Bisogna formare le persone e riqualificarle, dando però una formazione mirata, specifica, che consenta realmente la possibilità del lavoratore di rimettersi sul mercato del lavoro e trovare una nuova collocazione. Quindi, bisogna puntare su competenze specifiche e non utilizzare la formazione, come in tanti casi è stato fatto fino ad oggi, come una sorta di ammortizzatore sociale ufficioso.Pag. 31
  Vi è, poi, il problema legato alla privacy, un aspetto che non coinvolge solo i lavoratori, ma tutti noi cittadini. Parecchio è stato fatto con questa legge europea, l'AI Act, però è chiaro che anche su questo bisogna trovare il modo di governare questo fenomeno. Per esempio, secondo noi, i software di intelligenza artificiale debbono dotarsi di meccanismi di anonimizzazione e minimizzazione dei dati, altrimenti si corre il rischio che i dati personali di tutti noi diventino, poi, come di fatto lo sono già, un mercato molto ricco, a discapito della privacy di ognuno di noi.
  Vi è, poi, il tema della cybersicurezza, che comunque è legata anche alla privacy. Sappiamo che da poco, a gennaio, è stato introdotto il Network Information System 2, una direttiva europea sulla cybersicurezza, a cui molte aziende, la quasi totalità, debbono adeguarsi. Tra l'altro, è una norma che, per la prima volta, comporta anche una serie di sanzioni, non solo pecuniarie, ma anche interdittive, per gli amministratori delle aziende. Tutto questo, però, si scontra con un problema di alfabetizzazione digitale del Paese, un Paese dove l'anzianità è molto elevata. L'alfabetizzazione digitale ci vede tra i Paesi più in basso nel ranking europeo.
  Vi è, poi, tutto il discorso - che è stato già anticipato dai colleghi e che condivido pienamente - che riguarda un codice etico sull'intelligenza artificiale. Questo, per noi, come UGL, è un aspetto fondamentale, sul quale dobbiamo insistere. Speriamo che anche questo argomento in Italia venga recepito al più presto.
  Ultima considerazione e proposta. Proprio per il fatto che l'intelligenza artificiale è in continuo mutamento, credo sia opportuno proporre un osservatorio permanente con le parti sociali, i datori di lavoro, le forze politiche e il Governo, per monitorare continuamente l'evoluzione di questo fenomeno.

  PRESIDENTE. Do la parola ai colleghi che intendono intervenire per porre quesiti o formulare osservazioni.

  VINICIO GIUSEPPE GUIDO PELUFFO, (intervento in videoconferenza). Signor presidente, non so se i rappresentanti sindacali auditi hanno già immaginato di consegnare le memorie, e quindi può darsi che quanto mi accingo a dire trovi già risposta all'interno di queste.
  Semplicemente, presidente, è stato sottolineato e ripetuto in diversi interventi il tema del ruolo e del coinvolgimento delle parti sociali. A me sembra che questo sia un aspetto di rilievo, emerso con chiarezza e con forza oggi, e forse anche un po' un elemento di novità rispetto ad altre audizioni.
  Dunque, qualora nelle memorie non venga già indicato quali sono le proposte di coinvolgimento delle parti sociali, ovvero non vengano consegnate le memorie, ritengo che gli auditi possano riprendere la tematica aggiungendo una replica.

  PRESIDENTE. Credo che consegneranno le memorie. Alcuni non oggi, d'accordo.
  Non essendoci richieste di intervento, ringrazio l'ospite intervenuto. Autorizzo la pubblicazione in allegato al resoconto stenografico della seduta odierna della documentazione consegnata dai rappresentanti della organizzazione sindacale CGIL (vedi allegato 5) e dichiaro conclusa l'audizione.

  La seduta termina alle 16.40.

Pag. 32

ALLEGATO 1

Pag. 33

Pag. 34

Pag. 35

Pag. 36

Pag. 37

Pag. 38

Pag. 39

Pag. 40

Pag. 41

Pag. 42

ALLEGATO 2

Pag. 43

Pag. 44

Pag. 45

Pag. 46

Pag. 47

Pag. 48

ALLEGATO 3

Pag. 49

Pag. 50

Pag. 51

ALLEGATO 4

Pag. 52

Pag. 53

Pag. 54

Pag. 55

Pag. 56

Pag. 57

Pag. 58

Pag. 59

Pag. 60

Pag. 61

Pag. 62

Pag. 63

Pag. 64

Pag. 65

Pag. 66

Pag. 67

Pag. 68

ALLEGATO 5

Pag. 69

Pag. 70

Pag. 71