XIX Legislatura

X Commissione

Resoconto stenografico



Seduta n. 7 di Mercoledì 22 novembre 2023

INDICE

Sulla pubblicità dei lavori:
Cavo Ilaria , Presidente ... 3 

INDAGINE CONOSCITIVA SULL'INTELLIGENZA ARTIFICIALE: OPPORTUNITÀ E RISCHI PER IL SISTEMA PRODUTTIVO ITALIANO

Audizione, in videoconferenza, di Annarosa Pesole, economista del lavoro digitale, Battista Biggio, associato di Sistemi di elaborazione delle informazioni all'Università degli studi di Cagliari, Ernesto Damiani, presidente del Consorzio interuniversitario nazionale per l'informatica, Luigi Martino, direttore del Center for cyber security and international relations studies , e Giorgio Metta, direttore scientifico dell'Istituto italiano di tecnologia (IIT).
Cavo Ilaria , Presidente ... 3 
Pesole Annarosa , economista del lavoro digitale (intervento in videoconferenza) ... 3 
Cavo Ilaria , Presidente ... 5 
Pesole Annarosa , economista del lavoro digitale (intervento in videoconferenza) ... 5 
Cavo Ilaria , Presidente ... 5 
Biggio Battista , associato di Sistemi di elaborazione delle informazioni all'Università degli studi di Cagliari (intervento in videoconferenza) ... 5 
Cavo Ilaria , Presidente ... 8 
Damiani Ernesto , presidente del Consorzio interuniversitario nazionale per l'informatica (intervento in videoconferenza) ... 8 
Cavo Ilaria , Presidente ... 10 
Martino Luigi , direttore del Center for cyber security and international relations studies (intervento in videoconferenza) ... 10 
Cavo Ilaria , Presidente ... 11 
Martino Luigi , direttore del Center for cyber security and international relations studies (intervento in videoconferenza) ... 11 
Cavo Ilaria , Presidente ... 11 
Metta Giorgio , direttore scientifico dell'Istituto italiano di tecnologia (IIT) (intervento in videoconferenza) ... 11 
Cavo Ilaria , Presidente ... 13 
Biggio Battista , associato di Sistemi di elaborazione delle informazioni all'Università degli studi di Cagliari (intervento in videoconferenza) ... 13 
Cavo Ilaria , Presidente ... 14 
Metta Giorgio , direttore scientifico dell'Istituto italiano di tecnologia (IIT) (intervento in videoconferenza) ... 14 
Cavo Ilaria , Presidente ... 14 

Allegato 1: Documentazione depositata da Battista Biggio, associato di Sistemi di elaborazione delle informazioni all'Università degli studi di Cagliari ... 15 

Allegato 2: Documentazione depositata da Ernesto Damiani, presidente del Consorzio interuniversitario nazionale per l'informatica ... 23 

Allegato 3: Documentazione depositata da Giorgio Metta, direttore scientifico dell'Istituto italiano di tecnologia (IIT) ... 30

Sigle dei gruppi parlamentari:
Fratelli d'Italia: FdI;
Partito Democratico - Italia Democratica e Progressista: PD-IDP;
Lega - Salvini Premier: Lega;
MoVimento 5 Stelle: M5S;
Forza Italia - Berlusconi Presidente - PPE: FI-PPE;
Azione - Popolari europeisti riformatori - Renew Europe: AZ-PER-RE;
Alleanza Verdi e Sinistra: AVS;
Noi Moderati (Noi con L'Italia, Coraggio Italia, UDC e Italia al Centro) - MAIE: NM(N-C-U-I)-M;
Italia Viva - il Centro - Renew Europe: IV-C-RE;
Misto: Misto;
Misto-Minoranze Linguistiche: Misto-Min.Ling.;
Misto-+Europa: Misto-+E.

Testo del resoconto stenografico

PRESIDENZA DELLA VICEPRESIDENTE
ILARIA CAVO

  La seduta comincia alle 11.

Sulla pubblicità dei lavori.

  PRESIDENTE. Avverto che la pubblicità dei lavori della seduta odierna sarà assicurata anche mediante la trasmissione televisiva diretta sulla web-tv della Camera dei deputati.

Audizione, in videoconferenza, di Annarosa Pesole, economista del lavoro digitale, Battista Biggio, associato di Sistemi di elaborazione delle informazioni all'Università degli studi di Cagliari, Ernesto Damiani, presidente del Consorzio interuniversitario nazionale per l'informatica, Luigi Martino, direttore del Center for cyber security and international relations studies , e Giorgio Metta, direttore scientifico dell'Istituto italiano di tecnologia (IIT).

  PRESIDENTE. L'ordine del giorno reca, ai sensi dell'articolo 144, comma 1, del Regolamento, l'audizione di Annarosa Pesole, economista del lavoro digitale, Battista Biggio, associato di Sistemi di elaborazione delle informazioni all'Università degli studi di Cagliari, Ernesto Damiani, presidente del Consorzio interuniversitario nazionale per l'informatica, Luigi Martino, direttore del Center for cyber security and international relations studies, e Giorgio Metta, direttore scientifico dell'Istituto italiano di tecnologia (IIT) nell'ambito dell'indagine conoscitiva sull'intelligenza artificiale: opportunità e rischi per il sistema produttivo.
  Invito chi interviene a volerlo fare sinteticamente, in modo da lasciare più spazio possibile alle domande dei commissari, riservando gli ulteriori approfondimenti ad un eventuale contributo scritto, che verrà volentieri acquisito ai lavori della Commissione, focalizzandosi sull'oggetto dell'indagine come definito dal programma.
  Do la parola a Annarosa Pesole, economista del lavoro digitale, ricordando che il tempo complessivo a disposizione è di circa otto minuti.

  ANNAROSA PESOLE, economista del lavoro digitale (intervento in videoconferenza). Buongiorno. Grazie per questa convocazione. Buongiorno, presidente.
  Io credo che sia difficile partire oggi da considerazioni più generiche sull'intelligenza artificiale senza guardare e senza partire da quello che sta accadendo in Europa in queste ultime settimane, in particolare durante le sessioni di trilogo sul regolamento sull'intelligenza artificiale.
  Questo regolamento nasceva con un'ambizione di una legislazione orizzontale dell'intelligenza artificiale mirata a garantire uno sviluppo equilibrato e responsabile di questa tecnologia, e anche a prevenire gli eventuali rischi associati all'utilizzo di intelligenza artificiale nel mondo del lavoro, dell'impresa e della società civile più in generale.
  Infatti la proposta del legislatore europeo nasceva a partire da due presupposti: il primo presupposto era quello di avere un approccio risk based approach, ovvero cercava di definire alcune limitazioni all'utilizzo di tali sistemi in base al rischio sociale che potevano causare. Nella prima formulazione tutto quello che riguardava l'utilizzo dell'intelligenza artificiale sul posto di lavoro era considerato ad alto rischio. Questa era la formulazione presentata nella Pag. 4proposta originaria della Commissione europea.
  Il secondo obiettivo era quello di presentare delle norme per i fornitori di foundation model, che sarebbero modelli di base di larga scala, che prevedessero queste norme per gli strumenti di garanzia sul funzionamento di questi modelli: come per esempio la possibilità di un'auditing indipendente, l'obbligo di prevedere dei test di sicurezza, safety security, di prevedere delle misure qualitative, delle misure di monitoraggio, di valutazione e mitigazione dei rischi, così come anche formulazione di correzioni degli incidenti che potevano occorrere durante lo sviluppo di questi modelli.
  Questa era l'esigenza che nasceva e che nasce, perché è ancora presente, da una doppia consapevolezza: che da un lato questi sistemi già sono e diventeranno sempre di più parte integrante e fondante di quelle che sono le nostre attività quotidiane, non soltanto nel mondo del lavoro ma anche di tutte quelle che sono le relazioni sociali. Anche le relazioni rispetto, per esempio, a come ci approcciamo e come riusciamo a interagire con il servizio pubblico passeranno molto probabilmente per strumenti digitali e passeranno molto probabilmente per strumenti digitali che saranno in un certo momento empowered, rafforzati, dall'utilizzo dell'intelligenza artificiale. L'altra consapevolezza è che data la gamma e la gravità dei rischi che questi modelli di base possono sollevare queste proposte di strumenti e di garanzia, strumenti se vogliamo di trasparenza e anche di apertura rispetto allo sviluppo di tali misure, sono dei passi necessari da intraprendere per garantire la sicurezza pubblica e per garantire anche il rispetto di quelli che sono i diritti sociali e i diritti fondamentali – se vogliamo: i diritti digitali –, dei cittadini e dei lavoratori.
  Purtroppo invece quello a cui stiamo assistendo in queste ultime settimane è un progressivo smantellamento di questa ambizione che aveva inizialmente l'Unione europea. Abbiamo iniziato con un primo testo di compromesso, che è arrivato al trilogo, in cui tutta la parte legata al mondo del lavoro, all'utilizzo di intelligenza artificiale nel mondo del lavoro, che nella proposta originaria era sempre considerata ad alto rischio, è stato declassata a, sostanzialmente, una definizione di rischio che viene in qualche modo autocertificata dal fornitore stesso dell'intelligenza artificiale. Questo va da sé che è problematico, perché mentre prima permetteva di contenere l'utilizzo di intelligenza artificiale sul posto di lavoro, di contenere per esempio che non fosse mai utilizzata per finalità quali licenziamenti collettivi o forme di disciplina e di punizione, se vogliamo, dei lavoratori, adesso invece tutto questo va reinserito in un'ottica che è quella dell'autocertificazione del datore di lavoro che queste forme non verranno utilizzate per queste finalità o che non hanno degli effetti distorsivi dell'utilizzo di queste finalità. Quindi questo è già una prima questione che era già venuta fuori dal trilogo e chiaramente questo era stato in qualche modo bilanciato dall'introduzione di una ferma consultazione obbligatoria dei rappresentanti dei lavoratori, dei sindacati nel caso del nostro Paese, per l'adozione di intelligenza artificiale sul posto di lavoro, una formulazione che però si concretizza in forme poco chiare su come questa consultazione debba avvenire e soprattutto sulla base di quali informazioni date ai sindacati e quale possibilità effettiva di contrastare gli effetti dell'intelligenza artificiale sul posto di lavoro sia data ai rappresentanti dei lavoratori.
  Questa lettura va integrata anche con le azioni che sono state intraprese negli ultimi giorni da Francia e Germania con il supporto dell'Italia, che era il tentativo, in qualche modo, di spingere contro la regolamentazione dei modelli di larga scala di cui parlavamo prima e quindi chiedere che, piuttosto che una regolamentazione come si dice in gergo tecnico di tipo hard, di tipo ben definito, si passi all'adozione di codici di condotta.
  Questa è a mio avviso una scelta abbastanza problematica sia da un punto di vista di strategia e di politica industriale di questo Paese sia da un punto di vista dei potenziali effetti negativi e delle ripercussioni che ci possono essere sul mondo del lavoro.Pag. 5
  La questione è banalmente questa. Noi siamo un Paese che a differenza di Francia e Germania, che hanno interesse a spingere per questo tipo di adozione avendo dei campioni nazionali interni, come ad esempio Mistral in Francia, si trova in una posizione che è più difficile da interpretare, non avendo noi campioni nazionali da spingere e soprattutto avendo un tessuto imprenditoriale che è composto per un buon 80 per cento da piccole e medie imprese, che dovranno costruire eventualmente la loro digitalizzazione in un vero sviluppo verso il nuovo sistema industriale di intelligenza artificiale del futuro, basato su quelli che saranno modelli generativi fondati e creati invece, se va bene, da multinazionali americane e, nel caso specifico, dai campioni nazionali francese e tedesco prima citati.
  Questo è problematico perché nel peggiore dei casi per le piccole e medie imprese sarà decisamente impossibile soddisfare i requisiti stabiliti dalla legge sull'intelligenza artificiale. Per motivi ovvi, perché non essendo le imprese che in qualche modo progettano questi sistemi di intelligenza artificiale non hanno accesso alle informazioni e ai requisiti di garanzia richiesti dal regolamento sull'intelligenza artificiale: ad esempio non hanno accesso ai dati di origine, non saranno in grado di produrre una documentazione tecnica completa, non saranno in grado di garantire che ci sia accuratezza e robustezza integrata nel sistema che verrà utilizzato. Quindi la vera questione diventerà a un certo punto per le piccole e medie imprese l'incapacità di poter utilizzare tali sistemi e l'incapacità di poter sviluppare un ecosistema su questo punto.
  Vorrei aggiungere anche che tutto questo in Italia sarà ulteriormente reso complicato e difficile dalla mancanza di una rete infrastrutturale che permetterà lo sviluppo dell'intelligenza artificiale e dei sistemi così come concepiti.
  L'obiettivo dell'audizione era quello di capire quali sono le strategie che avrebbe senso intraprendere come Paese e che avrebbe senso portare avanti per garantire che ci sia uno sviluppo dell'intelligenza artificiale equilibrato in questo Paese.
  La prima, come dicevo, mi sembra appunto quella di, al contrario, cercare di capire qual è la posizione dell'Italia nel trilogo e cercare di capire perché l'Italia nel trilogo sta sostenendo questa posizione contraria, che in questo specifico contesto danneggerebbe il sistema produttivo italiano perché non permetterebbe alla piccola e media impresa di utilizzare dei sistemi perché resterebbero comunque responsabili del corretto funzionamento di tali sistemi non potendo avere però effettivamente né la struttura né la capacità organizzativa e finanziaria per poterli generare.

  PRESIDENTE. Professoressa, interessantissimo quello che lei sta dicendo, la invito però a concludere perché ha già superato il tempo previsto. Le do ovviamente tempo per farlo.

  ANNAROSA PESOLE, economista del lavoro digitale (intervento in videoconferenza). Ho concluso. È semplicemente questo: c'è la necessità di capire qual è la posizione da tenere per cercare di sviluppare sia un sistema interno sia di supportare la piccola e media impresa. Tale posizione sicuramente è quella di creare una regolamentazione che sia equilibrata e che crei il cosiddetto level playing field all'interno dell'Unione europea.

  PRESIDENTE. Do la parola a Battista Biggio, associato di Sistemi di elaborazione delle informazioni all'Università degli studi di Cagliari, ricordando che il tempo complessivo a disposizione è di circa otto minuti.

  BATTISTA BIGGIO, associato di Sistemi di elaborazione delle informazioni all'Università degli studi di Cagliari (intervento in videoconferenza). Buongiorno. Avvio la condivisione dello schermo per proiettare alcune slide (vedi allegato 1). Intanto grazie alla presidente e alla Commissione per l'invito.Pag. 6
  La mia relazione oggi verterà sul cercare di capire un po' meglio che cosa richiede da un lato la normativa corrente, che come abbiamo visto anche nell'audizione precedente è in fase di dibattimento, e quello che la ricerca e la tecnologia può offrire oggi.
  Come è già stato evidenziato l'AI Act è stato votato in plenaria lo scorso giugno ed è ora in fase di nuove modifiche e dibattimenti, e l'impianto principale di questa normativa era quello di identificare gli usi dell'intelligenza artificiale e delle tecnologie di AI in base al rischio e categorizzarle attraverso quattro fondamentali livelli di rischio crescente: da basso a limitato, alto, fino a rischio inaccettabile. A un crescente livello di rischio si affiancano requisiti mano a mano più stringenti, per esempio nell'applicazione del rischio limitato erano previsti semplicemente degli obblighi di trasparenza, quindi se io sto colloquiando in una chat devo sapere se sto colloquiando con un bot di intelligenza artificiale oppure no, anche se un utente guarda un contenuto su internet deve sapere se quello è stato potenzialmente generato da un'intelligenza artificiale.
  Le applicazioni invece che hanno un rischio più elevato abbiamo visto che sono in corso di ridefinizione, però includono ad esempio il riconoscimento biometrico, la gestione di infrastrutture critiche, fino all'uso di AI in veicoli a guida autonoma per esempio. Su questo i requisiti sono più stringenti e includono tutta una fase di documentazione del processo di design, quindi come vengono collezionati i dati, etichettati, documentare ogni fase, appunto, per essere in grado di tracciare se ci sono problemi e come si possono correggere, garantire un certo grado di trasparenza delle decisioni e garantire robustezza, accuratezza e anche la sicurezza di questi sistemi.
  Ora è chiaro che il quadro normativo stabilisce dei principi generali, il problema è capire, la scienza dovrebbe rispondere su come implementare questi requisiti che vengono posti.
  Ad oggi, dopo dieci anni di ricerca, quello che si sa fare, sostanzialmente, è dimostrare che queste tecnologie sono estremamente fragili.
  Devo dire che su questo tema noi dell'Università di Cagliari siamo stati tra i pionieri a scoprire questi problemi, poi l'area di ricerca è letteralmente esplosa, ad oggi ci sono migliaia di articoli ogni anno sull'argomento. Quello che si sa fare bene appunto è mostrare casi eclatanti di fallimento di questi algoritmi, per esempio si possono impersonare altre persone costruendo delle montature di occhiali molto particolari, si possono ingannare i sistemi di riconoscimento dei cartelli stradali applicando degli adesivi, per esempio sugli stop per vederli riconosciuti come limiti di velocità, si possono anche modificare i segnali audio in modo che un discorso venga trascritto in maniera completamente diversa, quindi gli umani percepiscono sempre il discorso corretto ma la traduzione e la trascrizione è completamente pilotata da un potenziale attaccante. E perfino i virus informatici possono essere manipolati con delle tecniche particolari per evadere la rilevazione dei modelli più avanzati, che sono passati anche qui sull'AI.
  Il problema non è inerente solo alla robustezza e alla sicurezza di questi sistemi, ma coinvolge anche le altre dimensioni di costruzione dell'AI affidabile, che includono appunto l'interpretabilità, la privacy e anche il problema di avere delle decisioni eque e non discriminatorie per esempio su gruppi minoritari, ed è stato dimostrato che non è facile controllare questi algoritmi su questi diversi assi.
  Sui modelli generativi ancora si sta studiando ed è già emerso lo stesso problema, quindi anche questi possono essere fuorviati, si possono superare le misure elementari di protezione che sono implementate, i cosiddetti guard-rail. È possibile costruire per esempio modificare i proxy per generare dei contenuti che dovrebbero essere vietati, questo vale sia su modelli di generazione del testo, da ChatGPT a seguire, e anche modelli che generano contenuto visivo.
  Quindi la ricerca ha ampiamente dimostrato come questi sistemi possono essere messi sotto attacco, diciamo, si possono Pag. 7pilotare le loro predizioni e il loro comportamento. Esistono delle contromisure a questo problema? La risposta è che non si sa ancora come fare e non abbiamo ancora una tecnologia che riesca a implementare e risolvere questi problemi. Dopo dieci anni di tentativi sostanzialmente. Ci sono delle tecniche promettenti che funzionano in scenari molto semplificati, ma non scalano ancora sulle applicazioni reali.
  L'AI verificabile, o certificabile come si chiama, appunto funziona in questi scenari molto ristretti ed è anche difficile capire quali criteri utilizzare per effettuare dei test affidabili su queste tecnologie.
  Problematiche simili coinvolgono anche gli altri assi dell'affidabilità dell'AI, quindi il fatto di costruire dei sistemi che siano equi, privacy preserving, cioè che garantiscano la privacy degli utenti: anche qui è complicato perché è difficile farlo mantenendo alta l'accuratezza di questi sistemi. È difficile anche fornire delle interpretazioni al loro funzionamento, perché anche queste possono essere manipolate, fuorviate e i sistemi che interpretano l'AI possono essere essi stessi soggetti di alcuni problemi. Quindi diciamo che la ricerca deve essere ancora sviluppata ampiamente.
  Cosa si può fare oggi per mitigare questi rischi? Sicuramente fare un'analisi del rischio un po' come si fa in scenari di sicurezza informatica sulla base dell'applicazione in cui l'AI viene utilizzata, documentare le varie fasi dello sviluppo e garantire che ad ogni fase si è fatto il meglio possibile allo stato dell'arte, quindi dalla collezione dei dati fino alla validazione delle predizioni del contenuto generato.
  Che cosa manca per assolvere a questo compito? Soprattutto per la piccola e media impresa, che non ha il know how per sviluppare questa tecnologia in casa, che mancano dei tool, dei sistemi e delle librerie che automatizzino le varie fasi, per esempio automatizzino la fase di documentazione e di reporting su come sono costruiti questi modelli e come sono utilizzati. Non abbiamo dei tool che supportino il test automatico per verificare la robustezza, la riservatezza e le altre caratteristiche che l'AI affidabile dovrebbe avere e non abbiamo neanche dei protocolli che ci aiutino a sistematizzare il processo di controllo, cioè il test di queste tecniche fatto da esperti come si fa solitamente anche nell'applicazione di sicurezza informatica. Questo è anche stato prescritto nell'organo esecutivo di base e quindi su questo immagino che nei prossimi giorni ci sarà grande attenzione.
  Per concludere, quello che ci chiede l'AI Act, almeno quello che veniva chiesto nella versione di giugno, era lo sviluppo di questi modelli di AI in modo che fossero affidabili, robusti e sicuri, ma dal punto di vista della ricerca questo è ancora un problema aperto, cioè non abbiamo ancora delle soluzioni pronte per le applicazione reali. C'è bisogno di continuare a investire sulla ricerca, su iniziative di formazione e c'è bisogno di costruire un ecosistema o un'iniziativa che comunque aiuti le PMI ad adottare queste tecnologie rispettando poi la normativa, fornendo per esempio tutta una serie di tool come quelli che ho elencato prima e magari aziende e start-up che affianchino le PMI nell'adozione di queste tecniche.
  Un aspetto molto importante è che si dovrebbero regolamentare le applicazioni delle AI e non la tecnologia di per sé stessa, qui c'è appunto tutto il dibattito sui modelli nazionali.
  Ma il problema è che, a parte i discorsi che si fanno sul rischio esistenziale, cioè che l'AI a un certo punto possa prendere il sopravvento e cancellare la razza umana, il punto principale è che se ci fosse un restringimento di questa normativa, soprattutto che andasse a colpire la ricerca e i modelli open source, cioè la disponibilità di poter studiare questi modelli in maniera libera, il rischio è che in realtà si scaverebbe un gap di competenze ancora più alto tra i possessori di questa tecnologia e i fruitori della stessa. In particolare anche il mondo accademico e l'Europa tutta, perché, come è stato rilevato anche prima, non abbiamo campioni nazionali o anche campioni a livello europeo che possano competere con le grandi aziende americane e del resto del mondo.Pag. 8
  Quindi l'invito è di evitare il soffocamento della ricerca e della disponibilità di questi modelli open source, quindi liberamente fruibili su internet, questo punto è anche l'oggetto di una lettera aperta che stiamo preparando per il consorzio Elsa.
  Elsa è un progetto europeo che ha l'obiettivo di costruire una rete di eccellenza sullo sviluppo di AI sicura e affidabile e stiamo appunto lavorando – sono tra i promotori di questa iniziativa – per evidenziare questo programma all'Unione europea e sperare che si eviti di soffocare lo sviluppo della ricerca e di modelli. Grazie.

  PRESIDENTE. Do la parola a Ernesto Damiani, presidente del Consorzio interuniversitario nazionale per l'informatica, ricordando che il tempo complessivo a disposizione è di circa otto minuti.

  ERNESTO DAMIANI, presidente del Consorzio interuniversitario nazionale per l'informatica (intervento in videoconferenza). Grazie. Condivido sullo schermo alcune slide per illustrare il mio intervento (vedi allegato 2).
  Volevo condividere osservazioni che riguardano una specifica classe di sistemi per l'intelligenza artificiale, di modelli per l'intelligenza artificiale, ed è una classe su cui in realtà anche negli interventi precedenti sono stati accesi i riflettori e vorrei un attimino però precisare meglio alcuni aspetti che riguardano questa classe. Sono i modelli di intelligenza artificiale basati sui cosiddetti large language model, cioè sui modelli che sono alla base ad esempio di ChatGPT.
  Un attimo solo che vediamo se riesco a condividere lo schermo. Se no lo dirò a voce e poi la presentazione potrà essere condivisa.
  Fondamentalmente tutti conosciamo il principio di funzionamento di ChatGPT, la capacità che ha di completare un prompt, completare può sembrare la risposta a una domanda, può sembrare uno sviluppo, può sembrare un miglioramento rispetto a quello che c'è scritto nel prompt che viene sottoposto al sistema.
  Quasi tutti hanno in mente l'utilizzo dei modelli large language model solo in contesti in cui il piano semantico è uniforme. Ciò vuol dire che io parto da un testo e lo miglioro mantenendo lo scopo finale della comunicazione che è quello di rivolgermi ad esempio ad altri esseri umani.
  Quello che stiamo sviluppando in questo momento (adesso parlo a nome sia dei laboratori nazionali dell'intelligenza artificiale del Cini e in generale della comunità scientifica internazionale) sono l'utilizzo di questo tipo di modelli anche tra piani semantici diversi. Questo significa ad esempio che i requisiti, una descrizione di un sistema o del suo stato interno, possono essere convertiti in un oggetto digitale che rappresenta la realizzazione.
  Quindi il large language model è un paradigma di grandissima importanza per gli aspetti di natura manifatturiera dei servizi, proprio perché attraverso questi modelli è possibile assistere l'operazione di realizzazione di sistemi. Quindi in pratica nel caso delle reti di telecomunicazioni ci sono già stati diversi progetti che sono stati attuati dagli operatori europei, anche, in cui diciamo una descrizione ad alto livello dei requisiti anche contrastanti che sono richiesti per una configurazione di una rete vengono tradotti in un oggetto digitale dal language model, un oggetto digitale che è effettivamente la configurazione che risolve il problema.
  Quindi abbiamo in atto un lavoro di ricerca, ma anche un lavoro di messa a punto di strumenti, nella presentazione io ho una descrizione dei toolkit che sono disponibili per la traduzione dell'aspetto descrittivo espresso in un linguaggio ad alto livello da parte di questi modelli, in oggetti digitali di configurazione dei sistemi complessi e verticali: sono le telecomunicazioni, ma non soltanto, l'energia e anche la manifattura.
  Quindi da questo punto di vista è estremamente importante capire il ruolo fondamentale dei large language model, almeno il ruolo che questi sistemi hanno e avranno sia nell'automazione dell'industria e dei servizi e sia nell'industria manifatturiera.Pag. 9
  Volevo sottolineare soprattutto il problema della sovranità digitale su questi modelli.
  Le potenzialità ovviamente sono molto chiare, le potenzialità di questo tipo di operazione significa essere in grado ad esempio di gestire sistemi di grande di grande complessità: la rete 6G è uno dei temi su cui si stanno facendo progetti di questo tipo, ma in cui fondamentalmente l'uomo esprime l'intenzione, la descrizione qualitativa del prodotto-servizio, e il sistema di intelligenza artificiale è in grado di intervenire sulla sua realizzazione e la messa in opera. Questo chiaramente vuol dire che possiamo ridurre i costi e possiamo anche ottenere prodotti e servizi estremamente innovativi.
  Dall'altro canto c'è il problema di chi è che fa l'addestramento e la fornitura del modello che utilizziamo allo scopo di realizzare questa automazione e, richiamandomi anche agli altri interventi che ho sentito, questo è il problema fondamentale.
  Il problema dell'addestramento quindi non riguarda soltanto il piano semantico uniforme, ma riguarda anche e soprattutto l'automazione industriale dei servizi.
  Questo tipo di sistemi innovativi – è stato citato Mistral per esempio, io vorrei citarne anche alcuni che sono stati preparati in altre regioni del mondo, ci sono oltre 15 modelli disponibili realizzati con finanziamenti regionali, cito Ernie perché si chiama come il sottoscritto, che è il modello cinese che è stato rilasciato recentemente da Baidu, la versione 3.5, ma ovviamente sono a disposizione per fare una disanima di quali sono gli strumenti che in questo momento sono in corso di rilascio –, sono sistemi che hanno subito l'addestramento, un addestramento costoso sia in termini di tempo che in termini di consumo energetico e di strutture di calcolo.
  Quindi vorrei arrivare a dire che avere in qualche modo il controllo sull'addestramento di questo tipo di sistemi, o comunque almeno una possibilità di monitoraggio e ispezione, è un elemento fondamentale di sovranità digitale.
  Per questo motivo, è già stato citato ma lo vorrei sottolineare, ci sono due modi: un modo è quello di avere dei champion sottoposti alla giurisdizione regionale o nazionale che in qualche modo possono soddisfare le normative. Le normative sono state già menzionate e non le ripeto, ma sicuramente è molto importante che poi i soggetti che eseguono gli addestramenti siano in qualche modo raggiungibili nell'ambito regolatorio normativo. E poi c'è un secondo metodo, che è già stato citato anche quello, che è quello del posizionamento del sostegno ai sistemi aperti e open-source. Un altro modo di un controllo collettivo sull'addestramento dei sistemi large language model è quello di coinvolgere la comunità, in qualche maniera, e l'open source offre un modo ben noto per consentire di avere un controllo ispettivo o comunque un controllo sull'evoluzione di questi sistemi.
  Personalmente, anche a nome anche del Cini – noi siamo a disposizione: persone del Cini sono all'interno delle commissioni recentemente nominate; come comunità accademica io rappresento un po' da questo punto di vista l'intera comunità accademica del settore informatico e siamo a disposizione per l'interlocuzione su questo tema –, io vorrei sottolineare la necessità di trattarlo come un tema di sovranità digitale.
  Quindi se non abbiamo il champion potremmo anche pensare di incoraggiarne la nascita, come è stato fatto per altri settori, penso per esempio al cloud nazionale, penso per esempio a settori in cui abbiamo trovato che tecnologie critiche devono stare all'interno di un perimetro in cui non solo facciamo ricerca ma facciamo anche sistemi.
  Quindi volevo richiamare l'attenzione della Commissione su questo aspetto, cioè certamente i champion non li abbiamo, forse non li hanno in questo momento neanche Francia e Germania, però sicuramente c'è da prendere una decisione. Se vogliamo un modello multicentrico aperto di sviluppo di questi sistemi e cercare di favorirlo oppure se ci interessa partecipare e mantenere una sovranità digitale specifica sulla costruzione e il credit di questi modelli.Pag. 10
  Ecco, io mi fermerei qua perché mi sembra che questo che ho detto complementi le cose che sono state dette molto bene dagli auditi precedenti.

  PRESIDENTE. Do la parola a Luigi Martino, direttore del Center for cyber security and international relations studies, ricordando che il tempo complessivo a disposizione è di circa otto minuti.

  LUIGI MARTINO, direttore del Center for cyber security and international relations studies (intervento in videoconferenza). Grazie mille, presidente. Grazie alla Commissione per avermi coinvolto nell'indagine conoscitiva. Condivido, se ce la faccio, il contenuto della mia presentazione.
  Fondamentalmente io cercherò di aggiungere alle eccellenti dissertazioni che mi hanno preceduto una prospettiva diversa, per dare anche idea della multidisciplinarità dell'oggetto di indagine che stiamo affrontando, una prospettiva per andare a verificare come si stanno muovendo gli altri Paesi nel contesto internazionale dell'artificial intelligence da un punto di vista sia di iniziative o di comparti interessati dallo sviluppo e dall'impatto dell'artificial intelligence, ma anche da un punto di vista se vogliamo prettamente organizzativo di governance e di architettura istituzionale.
  È stato citato, farò un overview molto breve per stare nei 7/8 minuti, l'executive order, di recente emanazione negli Stati Uniti, sullo sviluppo sicuro dell'uso dell'artificial intelligence.
  Poi ho inserito alcune conclusioni e raccomandazioni che mi vedono allineato con chi mi ha preceduto, soprattutto il concetto a cui faceva menzione il professor Damiani, del champion nazionale ma anche dal punto di vista di come l'Italia si dovrebbe dotare per gestire, da un punto di vista di architettura nazionale, anche di governance, per gestire gli sviluppi nel contesto dell'artificial intelligence.
  Fondamentalmente questa è la situazione attuale di cui dobbiamo prendere coscienza, questi sono i Paesi che sono più attivi nel contesto dell'artificial intelligence, l'Italia nell'indagine svolta dall'Organizzazione per la cooperazione e lo sviluppo economico non è presente tra questi Paesi, come vedete l'OECD ha fatto un'indagine mappando cosa stanno facendo i Paesi e in quali settori. Ad occhio potete vedere che i settori più impattati dall'utilizzo dell'artificial intelligence prevalentemente sono quelli manifatturieri, come il settore dell'agricoltura, del food, del cibo, poi ci sono i settori nel contesto dell'health care, quindi sanitario, della mobilità e dei trasporti, e anche i settori della pubblica amministrazione.
  Cosa vuol dire l'indagine effettuata dall'OECD? Vuol dire che questi sono i settori dove si sta sviluppando l'utilizzo dell'artificial intelligence da parte di questi Paesi, ma soprattutto sono i settori non solo più impattati, perché lo sono già, ma quelli in cui il fattore umano verrà impattato più di tutti, quindi il contesto di cui si parlava prima, l'aveva specificato il professor Damiani, processi anche industriali che verranno impattati sempre più con l'avvento, l'implementazione e lo sviluppo dell'artificial intelligence.
  Al lato della mia destra che guardo lo schermo vedete anche come si sono dotati alcuni Paesi, come hanno deciso di dotarsi per gestire il fenomeno dell'artificial intelligence da un punto di vista, se vogliamo, di politiche pubbliche ma ancor di più di organizzazione politica, quindi come gestire questo fenomeno da un punto di vista di architettura nazionale.
  La Francia per esempio coordina le policy dell'implementazione relativa all'artificial intelligence direttamente dall'ufficio del primo ministro.
  Gli Stati Uniti lo fanno attraverso un'entità implementata (lo vedremo fra poco) all'interno della Casa Bianca, quindi alle dirette dipendenze del presidente.
  In Austria è stato istituito un consiglio sulla robotica e l'Artificial Intelligence. In Spagna è stata recentemente implementata un'agenzia dedicata all'Artificial Intelligence.
  In Italia non ce l'abbiamo. L'unico esempio relativo agli aspetti tecnologici e di recente emanazione, nel 2021, è l'istituzione dell'Agenzia per la cybersicurezza nazionale. Quindi la prima raccomandazionePag. 11 sarebbe quella di verificare la necessità da un punto di vista politico di dotarsi di un organismo, un organo, un ente o addirittura un'agenzia dedicata alla artificial intelligence, come stanno facendo anche negli altri Paesi: è in discussione anche in Germania una soluzione del genere.
  Andiamo all'executive order. Cosa prevede l'executive order e perché ho deciso di portare all'attenzione della Commissione l'executive order emanato poche settimane fa dal presidente Biden.
  Dell'Unione europea – noi ne facciamo parte e in qualche modo possiamo anche influenzarlo il processo decisionale all'interno dell'Unione europea – è stato già menzionato come ci stiamo attrezzando da un punto di vista di far modifiche eventuali nel processo di approvazione dell'AI Act. Mentre diverso è quello che possiamo fare da un punto di vista con un alleato fondamentale che sono gli Stati Uniti, che non sono solo un alleato ma sono coloro, gli Stati Uniti, che possono influenzare in bene o in male anche gli impatti che avremo da un punto di vista normativo e anche di adeguamento delle nostre esigenze alle loro, anche offerte di carattere tecnologico e commerciale, quindi rispetto anche a ciò che veniva considerato prima il concetto di sovranità digitale, come ci attrezzeremo e come ci dobbiamo attrezzare rispetto alle iniziative che sono state implementate o che sono in fase di implementazione negli Stati Uniti.
  L'executive order parte da un presupposto fondamentale, la decisione del presidente di dare e incrementare opportunità per attrarre esperti in artificial intelligence e tecnologie critiche.
  Io ho evidenziato solo alcuni degli aspetti, non gli aspetti tecnici, non gli aspetti tecnologici e nemmeno gli aspetti relativi ad alcuni elementi veramente innovativi rispetto alla regolamentazione del risultato dell'artificial intelligence o dello sviluppo tecnologico.
  Quello che mi preme sottolineare è come gli Stati Uniti si stanno attrezzando per attrarre esperti in queste materie. Lo fanno attraverso il cosiddetto concetto di facilitazione dell'immigrazione, selezionando l'immigrazione in entrata e semplificando addirittura anche processi, come sappiamo abbastanza ferrei, per l'approvazione delle green card, bypassando anche il processo di certificazione del lavoro. È talmente elevata l'urgenza di trovare esperti in questo contesto, che addirittura gli Stati Uniti hanno deciso di allargare le maglie per concedere la green card.
  L'altro aspetto fondamentale è che l'executive order impone 150 obblighi alle agenzie, 50 obblighi specifici, e obbliga le agenzie pubbliche a fornire consulenza...

  PRESIDENTE. Mi perdoni, devo invitarla a concludere, anche per rispetto degli altri intervenuti. Grazie.

  LUIGI MARTINO, direttore del Center for cyber security and international relations studies (intervento in videoconferenza). Assolutamente.
  Quindi quali sono le raccomandazioni che potremmo affrontare in questo contesto? Poi condividerò le slide per una maggiore consultazione.
  Gli aspetti fondamentali sono quelli relativi all'apprendimento continuo e sviluppo delle competenze, fornire standard, accordi di lavoro innovativi e nuovi in questo contesto e rivedere le politiche industriali e fiscali, prevedendo ad esempio anche degli incentivi a chi decide di investire nel contesto dell'artificial intelligence prevedendo però anche delle misure di controllo.
  Finisco qui. E grazie davvero tanto per l'opportunità.

  PRESIDENTE. Grazie a lei. Do ora la parola a Giorgio Metta, direttore scientifico dell'Istituto italiano di tecnologia (IIT), ricordando che il tempo complessivo a disposizione è di circa otto minuti.

  GIORGIO METTA, direttore scientifico dell'Istituto italiano di tecnologia (IIT) (intervento in videoconferenza). Buongiorno. Grazie a tutti. Cerco di non ripetere le cose molto interessanti che ho sentito dai colleghi – devo dire che si tratta di panorama molto ben costruito – e consegno un contributoPag. 12 scritto che dettaglia i contenuti del mio intervento (vedi allegato 3).
  Vorrei innanzitutto fare qualche considerazione di scenario.
  La prima è rispetto alla questione delle attività produttive che sfortunatamente a livello Paese andiamo incontro a quello che è stato definito spesso un inverno demografico. Sappiamo che da qui al 2040, un periodo di tempo non troppo lungo, andremo a perdere netti circa 3,7 milioni di lavoratori, nel senso che questi andranno in pensione e non saranno rimpiazzati da altrettanti giovani che entrano nel mondo del lavoro. Quindi evidentemente un pensiero che dobbiamo fare sull'intelligenza artificiale è che se, come promette, efficienta i processi industriali allora è certamente una tecnologia che dobbiamo sviluppare e dobbiamo mantenere in casa per poter compensare effettivamente questa carenza effettiva di manodopera che potremmo sperimentare nel 2040. Quindi questo è un primo pensiero che dà forse una prospettiva del perché è importante la tecnologia al di fuori dalla potenza del metodo. È chiaro che è una tecnologia molto potente, può cambiare il modo di fare diverse cose e quindi un pensiero sulla sua adozione a livello industriale dobbiamo farla.
  Il mercato si prevede che nei prossimi anni diventerà bilionario come volume complessivo e quindi anche dal punto di vista poi economico se riusciremo a ricavare una fettina o ad avere dei protagonisti in questo mercato è chiaramente una grossa opportunità.
  Quindi vista la criticità della mancanza di forza-lavoro dobbiamo poi fare un pensiero allora su come compensare.
  È chiaro che anche se utilizzassimo tecnologie sviluppate dai big del comparto ICT tecnologico in questo momento, anche se utilizzassimo solo quella tecnologie, quindi customizzate per le nostre applicazioni, avremo comunque bisogno di una digitalizzazione più intensa delle nostre aziende.
  Si stima che in questo momento ci sarebbero da digitalizzare sicuramente 113 mila PMI, e queste sono tutte PMI perché le grandi hanno certamente i mezzi e hanno raggiunto un'intensità digitale alla pari di quella dello European Compass, quella raccomandata dall'European Compass, quindi dell'80 per cento, ma le PMI sono ancora in sofferenza.
  Lungo la stessa linea di pensiero per digitalizzare abbiano bisogno di competenze, ma sfortunatamente la nostra accademia non ne forma abbastanza: le competenze sono di qualità ma numericamente non sono sufficienti. Probabilmente sarebbe necessario moltiplicare il settore ICT per la parte formazione di un fattore cinque rispetto a quello attuale, quindi arrivare a circa 137.000 iscritti in materia ICT, cosa che evidentemente in questo momento non abbiamo.
  Per ultimo bisognerebbe fare anche formazione di base, quindi le imprese per digitalizzarsi hanno bisogno comunque di formazione, altrimenti i sistemi di AI non si riescono neanche a utilizzare, quindi questo è un altro aspetto da considerare.
  I settori applicativi trasversalmente sono tanti, vorrei ricordare che è vero che si parla tanto di AI generativa, di large language model, ma esiste un settore dell'AI che è altrettanto potente e altrettanto utile che va a impattare con tecnologie se vogliamo più avvicinabili i settori produttivi, quindi un miglioramento della qualità dell'automazione, dei sistemi robotici, una possibilità di utilizzare sistemi tutto sommato tradizionali di machine learning nel settore medico, quindi la capacità per esempio di analizzare le bioimmagini, di farlo in maniera efficiente. Evidentemente la tecnologia è molto più ampia di quello che si vede, perché in questo momento evidentemente i large language model vanno per la maggiore.
  Se pensiamo ai large language model, forse per smitizzarli un pochino, penso alle applicazioni verticali che possono avere, non abbiamo parlato ad esempio di generazione automatica del codice. Quindi i tool disponibili in questo momento ci consentono, senza particolari secondo me pensieri legati all'etica, di rendere i nostri programmatori più efficienti di circa un 30 per cento in media. Questo vuol dire che abbiamo la possibilità oggettiva di essere più produttivi, questo è proprio quello che Pag. 13va a compensare invece il declino di forza-lavoro che andremo a sperimentare nei prossimi anni. Questo è un esempio. Sempre i large language model possono essere utilizzati per la consultazione della base dati aziendale, quindi per avere una consultazione efficace e tutto sommato interrogabile attraverso un linguaggio naturale di quelli che sono i dati della produzione dell'azienda.
  Nello stesso modo si sono utilizzati i large language model per fare analisi di dati medici, di dati legati alla biologia, quindi evidentemente ovunque esiste una struttura di qualche tipo semantico-sintattica, è possibile allenare questi modelli sui dati.
  La differenza è che non stiamo parlando di testo generico, stiamo parlando di dati che possono essere molto controllati, si possono verificare i bias eventuali, perché sono tutto sommato dati in nostro possesso, sono i dati delle nostre aziende che lavorano nei settori più disparati.
  Questo mi sembrava che sia una considerazione da fare perché è un'applicazione che è molto verticalizzata dell'AI generativa, potrebbe richiedere modelli tutto sommato più piccoli e quindi sono più abbordabili anche per i nostri potenziali sviluppatori di AI. L'infrastruttura tecnologica in questo momento comincia, direi, a essere disponibile – abbiamo parlato del Cini –, anche perché la capacità di calcolo grazie al PNRR è cresciuta abbastanza; c'è un Centro nazionale su AI performance computing che ci può dare una grossa mano, per cui mi sento di dire che parlando di attività produttive in generale un uso saggio delle nostre conoscenze di intelligenza artificiale potrebbe fare una grossa differenza.
  La stima, sempre secondo alcuni studi, in questo caso cito The European House Ambrosetti perché ho letto il rapporto, arriva a un 18 per cento del PIL nel 2040, 312 miliardi, un numero direi piuttosto interessante, per cui riflessione certamente da portare sul tavolo del decisore politico perché gli investimenti in formazione possono riflettersi in questo bellissimo numero di crescita del nostro prodotto interno lordo. Grazie.

  PRESIDENTE. Grazie anche a lei. Allora è il momento delle domande, chiedo se ce ne sono da parte dei colleghi collegati o presenti.
  Provo a fare io un paio di domande. Capisco che si tratta di domande non troppo tecniche, anche se voi siete tecnici e noi no, che forse meriterebbero risposte molto ampie mentre abbiamo tempi ristretti.
  Una al dottor Biggio che intervenendo ha fatto riferimento, in un inciso che però mi ha abbastanza colpito, alla possibilità che l'intelligenza artificiale superi quella umana.
  Quindi la domanda è: è possibile? Quando sarà possibile? È già in atto e non ce ne stiamo rendendo conto? Che cosa prevede da questo punto di vista?
  Poi volevo chiedere invece a Giorgio Metta qualcosa con riferimento a specifici aspetti da lui stimolati relativi alla formazione e al numero dei lavoratori nonché al campo di applicazione dell'AI.
  Quanto al primo, chiederei la valutazione se alla fine il saldo nelle proiezioni vedrà una maggiore occupazione data da un PIL accresciuto per effetto dell'intelligenza artificiale oppure se l'intelligenza artificiale sostituirà inevitabilmente certi mestieri: come ci rapportiamo rispetto a questi due dati? E soprattutto come, visto che i dati che ha riferito sull'assenza di personale, diciamo di tecnici che possano andare a lavorare nel campo dell'intelligenza artificiale, lasciano intendere che mancano le unità professionali necessarie? Come facciamo a fare le proiezioni se poi, secondo i numeri riferiti, manca tutta questa professionalità?
  L'ultima domanda. Visto che l'ITT è soprattutto specializzato nel campo della robotica, quale potrebbe essere il fronte di applicazione dell'intelligenza artificiale in questo settore, che poi a sua volta ha impatto sugli altri settori produttivi. Grazie.
  Pregherei di rispondermi brevemente, in non più di cinque minuti complessivi. Grazie.

  BATTISTA BIGGIO, associato di Sistemi di elaborazione delle informazioni all'Università degli studi di Cagliari (intervento in Pag. 14videoconferenza). Cercherò di essere molto breve.
  La mia personale opinione è che il rischio paventato sia ancora molto lontano. In generale ci sono sia premi Turing che Nobel dell'informatica schierati a supporto di questa tesi e altrettanti contrari.
  Quello che posso dire è che è stato ampiamente dimostrato che queste macchine non imparano come l'umano. Non sappiamo neanche misurare e definire l'intelligenza umana, che potrebbe essere molto più complessa di quello che è il funzionamento delle macchine, mentre sappiamo che gli scienziati sono molto inaffidabili quando si tratta di fare previsioni a medio-lungo termine in questi campi. Già negli anni Cinquanta, quando è nata l'AI, pensavano di risolvere il problema del riconoscimento dei caratteri manoscritti o della capacità delle macchine di parlare in tre, quattro mesi: poi ci sono voluti più di 50/60 anni per vedere la prima tecnologia veramente funzionante in questo ambito.
  Quindi per il momento non mi preoccuperei molto di questo aspetto, ma farei attenzione a che questo problema non venga strumentalmente utilizzato per limitare la ricerca in questo settore a favore ancora delle grandi industrie che possiedono la tecnologia.

  PRESIDENTE. Grazie per la risposta concisa e chiarissima. Do la parola Giorgio Metta per rispondere alle altre domande.

  GIORGIO METTA, direttore scientifico dell'Istituto italiano di tecnologia (IIT) (intervento in videoconferenza). Sarò brevissimo. Sul discorso dell'impatto sul mondo del lavoro è chiaro che ci sarà una trasformazione, però è anche vero che abbiamo da qui al 2040 circa un po' meno di 10 milioni di persone che vanno in pensione, quindi i numeri sono veramente molto importanti. Quindi dobbiamo intervenire sui giovani, sulla parte di formazione, in modo che in questo mercato entrino sempre di più dei giovani che hanno delle basi di digitale, che hanno una conoscenza non necessariamente super verticale sulle AI ma almeno di ICT sufficiente a poter utilizzare e implementare queste tecnologie. Poi è chiaro che se ce ne sono di più sulle AI meglio ancora.
  Quindi un ragionamento bisogna farlo, ma è un ragionamento molto mirato secondo me al discorso della formazione e della preparazione delle persone, chiaramente questo richiede poi un investimento specifico.
  Dal punto di vista della robotica e quindi della parte di automazione e possibilità di impatto, è chiaro che l'AI può fare una grossa differenza soprattutto per le piccole e medie imprese, dove è necessario realizzare impianti produttivi che abbiano una flessibilità molto elevata. L'AI è la tecnologia principe per rendere questi sistemi riconfigurabili molto velocemente e quindi dare la possibilità di automazione anche alle PMI, che altrimenti con sistemi molto rigidi dovrebbero fare investimenti che chiaramente non sono sostenibili.

  PRESIDENTE. Grazie per il vostro contributo. Ringrazio i soggetti auditi per la loro partecipazione alla seduta.
  Autorizzo la pubblicazione in allegato al resoconto stenografico della seduta odierna della documentazione consegnata da Battista Biggio, associato di Sistemi di elaborazione delle informazioni all'Università degli studi di Cagliari (vedi allegato 1), Ernesto Damiani, presidente del Consorzio interuniversitario nazionale per l'informatica (vedi allegato 2) e Giorgio Metta, direttore scientifico dell'Istituto italiano di tecnologia (IIT) (vedi allegato 3) e dichiaro conclusa l'audizione.

  La seduta termina alle 12.

Pag. 15

ALLEGATO 1

Pag. 16

Pag. 17

Pag. 18

Pag. 19

Pag. 20

Pag. 21

Pag. 22

Pag. 23

ALLEGATO 2

Pag. 24

Pag. 25

Pag. 26

Pag. 27

Pag. 28

Pag. 29

Pag. 30

ALLEGATO 3

Pag. 31

Pag. 32

Pag. 33