XIX Legislatura

X Commissione

Resoconto stenografico



Seduta n. 1 di Martedì 19 settembre 2023

INDICE

Sulla pubblicità dei lavori:
Gusmeroli Alberto Luigi , Presidente ... 3 

INDAGINE CONOSCITIVA SULL'INTELLIGENZA ARTIFICIALE: OPPORTUNITÀ E RISCHI PER IL SISTEMA PRODUTTIVO ITALIANO

Audizione, in videoconferenza, di Barbara Caputo, Direttrice dell'Hub sull'intelligenza artificiale (AI-Hub) del Politecnico di Torino.
Gusmeroli Alberto Luigi , Presidente ... 3 
Caputo Barbara , Direttrice dell'Hub sull'intelligenza artificiale (AI-Hub) del Politecnico di Torino ... 3 
Gusmeroli Alberto Luigi , Presidente ... 3 
Caputo Barbara , Direttrice dell'Hub sull'intelligenza artificiale (AI-Hub) del Politecnico di Torino ... 3 
Gusmeroli Alberto Luigi , Presidente ... 4 
Pavanelli Emma (M5S)  ... 4 
Caputo Barbara , Direttrice dell'Hub sull'intelligenza artificiale (AI-Hub) del Politecnico di Torino ... 5 
Gusmeroli Alberto Luigi , Presidente ... 5 
Caputo Barbara , Direttrice dell'Hub sull'intelligenza artificiale (AI-Hub) del Politecnico di Torino ... 5 
Gusmeroli Alberto Luigi , Presidente ... 6 

Audizione, in videoconferenza, di Stefano Armando Ceci, Senior innovation advisor presso LVenture group Spa:
Gusmeroli Alberto Luigi , Presidente ... 6 
Ceci Stefano Armando , Senior innovation advisor presso LVenture group Spa ... 6 
Gusmeroli Alberto Luigi , Presidente ... 8 

Audizione, in videoconferenza, di Vincenzo Colarocco, Membro del Circolo giuristi telematici:
Gusmeroli Alberto Luigi , Presidente ... 8 
Colarocco Vincenzo , Membro del Circolo giuristi telematici ... 8 
Gusmeroli Alberto Luigi , Presidente ... 8 
Colarocco Vincenzo , Membro del Circolo giuristi telematici ... 8 
Gusmeroli Alberto Luigi , Presidente ... 10 

Audizione, in videoconferenza, di Marco Gori, Ordinario di ingegneria dell'informazione presso l'Università degli studi di Siena:
Gusmeroli Alberto Luigi , Presidente ... 10 
Gori Marco , Ordinario di ingegneria dell'informazione presso l'Università degli studi di Siena ... 11 
Gusmeroli Alberto Luigi , Presidente ... 12 
Cappelletti Enrico (M5S)  ... 12 
Gori Marco , Ordinario di ingegneria dell'informazione presso l'Università degli studi di Siena ... 12 
Gusmeroli Alberto Luigi , Presidente ... 13 

Audizione, in videoconferenza, di Enrico Castanini, Amministratore unico di Liguria digitale Spa:
Gusmeroli Alberto Luigi , Presidente ... 13 
Castanini Enrico , Amministratore unico di Liguria digitale Spa ... 13 
Gusmeroli Alberto Luigi , Presidente ... 15 
Cappelletti Enrico (M5S)  ... 15 
Castanini Enrico , Amministratore unico di Liguria digitale Spa ... 15 
Gusmeroli Alberto Luigi , Presidente ... 15 
Castanini Enrico , Amministratore unico di Liguria digitale Spa ... 15 
Gusmeroli Alberto Luigi , Presidente ... 15 
Castanini Enrico , Amministratore unico di Liguria digitale Spa ... 15 
Gusmeroli Alberto Luigi , Presidente ... 16 
Benzoni Fabrizio (A-IV-RE)  ... 16 
Castanini Enrico , Amministratore unico di Liguria digitale Spa ... 16 
Gusmeroli Alberto Luigi , Presidente ... 17 

Audizione, in videoconferenza, di Gianluca Boleto, Head of artificial intelligence & Co-Founder di Hodlie S.r.l.:
Gusmeroli Alberto Luigi , Presidente ... 17 
Boleto Gianluca , Head of artificial intelligence & Co-Founder di Hodlie S.r.l ... 17 
Gusmeroli Alberto Luigi , Presidente ... 18 

Audizione, in videoconferenza, di Luca Oneto, Associato di informatica presso Università degli Studi di Genova:
Gusmeroli Alberto Luigi , Presidente ... 18 
Oneto Luca , Associato di informatica presso Università degli Studi di Genova ... 19 
Gusmeroli Alberto Luigi , Presidente ... 21 

Audizione, in videoconferenza, di Giuliano Lancioni, Ordinario di lingua e letteratura araba presso l'Università degli studi di Roma Tre e Coordinatore del progetto di ricerca PRIN «IsFinTech»:
Gusmeroli Alberto Luigi , Presidente ... 21 
Lancioni Giuliano , Ordinario di lingua e letteratura araba presso l'Università degli studi di Roma Tre e Coordinatore del progetto di ricerca PRIN «IsFinTech» ... 21 
Gusmeroli Alberto Luigi , Presidente ... 23 

(La seduta, sospesa alle 11.55, è ripresa alle 12) ... 23 

Audizione, in videoconferenza, di Paolo Ferragina, Ordinario di algoritmi all'Università di Pisa:
Gusmeroli Alberto Luigi , Presidente ... 23 
Ferragina Paolo , Ordinario di ingegneria dell'informazione presso l'Università degli studi di Pisa ... 23 
Gusmeroli Alberto Luigi , Presidente ... 23 
Ferragina Paolo , Ordinario di ingegneria dell'informazione presso l'Università degli studi di Pisa ... 23 
Gusmeroli Alberto Luigi , Presidente ... 28 

Allegato 1: Documentazione depositata da Stefano Armando Ceci ... 29 

Allegato 2: Documentazione depositata dal professor Marco Gori ... 32 

Allegato 3: Documentazione depositata da Gianluca Boleto ... 39 

Allegato 4: Documentazione depositata dal professor Luca Oneto ... 43 

Allegato 5: Documentazione depositata dal professor Giuliano Lancioni ... 57 

Allegato 6: Documentazione depositata dal professor Paolo Ferragina ... 61

Sigle dei gruppi parlamentari:
Fratelli d'Italia: FdI;
Partito Democratico - Italia Democratica e Progressista: PD-IDP;
Lega - Salvini Premier: Lega;
MoVimento 5 Stelle: M5S;
Forza Italia - Berlusconi Presidente - PPE: FI-PPE;
Azione - Italia Viva - Renew Europe: A-IV-RE;
Alleanza Verdi e Sinistra: AVS;
Noi Moderati (Noi con L'Italia, Coraggio Italia, UDC e Italia al Centro) - MAIE: NM(N-C-U-I)-M;
Misto: Misto;
Misto-Minoranze Linguistiche: Misto-Min.Ling.;
Misto-+Europa: Misto-+E.

Testo del resoconto stenografico

PRESIDENZA DEL PRESIDENTE
ALBERTO LUIGI GUSMEROLI

  La seduta comincia alle 10.15.

Sulla pubblicità dei lavori.

  PRESIDENTE. Avverto che la pubblicità dei lavori della seduta odierna sarà assicurata anche mediante la resocontazione stenografica e attraverso la trasmissione televisiva diretta sulla web tv della Camera dei deputati.

Audizione, in videoconferenza, di Barbara Caputo, Direttrice dell'Hub sull'intelligenza artificiale (AI-Hub) del Politecnico di Torino.

  PRESIDENTE. L'ordine del giorno reca, ai sensi dell'articolo 144, comma 1, del Regolamento, l'audizione di Barbara Caputo, Direttrice dell'Hub sull'intelligenza artificiale (AI-Hub) del Politecnico di Torino nell'ambito dell'indagine conoscitiva sull'intelligenza artificiale: opportunità e rischi per il sistema produttivo.
  Invito chi interviene a volerlo fare sinteticamente, in modo da lasciare più spazio possibile alle domande dei commissari, riservando gli ulteriori approfondimenti ad un eventuale contributo scritto, che verrà volentieri acquisito ai lavori della Commissione, focalizzandosi sull'oggetto dell'indagine come definito dal programma.
  Do la parola a Barbara Caputo, Direttrice dell'Hub sull'intelligenza artificiale (AI-Hub) del Politecnico di Torino ricordando che il tempo complessivo a disposizione è di circa otto minuti.

  BARBARA CAPUTO, Direttrice dell'Hub sull'intelligenza artificiale (AI-Hub) del Politecnico di Torino. Buongiorno a tutti, onorevoli deputati, e grazie per questa opportunità.
  Io dovrei condividere delle slide.

  PRESIDENTE. Prego, condivida.

  BARBARA CAPUTO, Direttrice dell'Hub sull'intelligenza artificiale (AI-Hub) del Politecnico di Torino. Non mi lascia condividere. Non importa, farò il mio intervento a braccio e invierò le slide.
  In questo momento l'intelligenza artificiale sta entrando in maniera sempre più prepotente in tutti i gangli del sistema produttivo. Questo è legato al fatto che viviamo un momento storico in cui i sensori stanno diventando sempre più diversi, sempre più capaci di catturare informazioni di tipo differente e sempre più economici. Quindi è possibile mettere dei sensori molto piccoli nel terreno che in tempo reale misurano la composizione del terreno e lo stato di salute delle coltivazioni che avvengono su questo terreno. Ci sono sensori che possono essere messi sul satellite che permettono di acquisire immagini a una risoluzione minuscola, in grado veramente di arrivare ai centimetri visti dall'alto su satelliti a bassa quota.
  Tutto questo avrà e sta avendo degli impatti sul mondo lavorativo enormi. Io qui mi vorrei soffermare su tre aspetti.
  Il primo aspetto è quello della formazione. In questo momento c'è una richiesta fortissima di esperti nel campo dell'intelligenza artificiale. Questi esperti da una parte hanno un mercato del lavoro a livello mondiale, quindi per il Sistema Paese sta diventando sempre più complicato poterli trattenere.
  D'altra parte quello che vediamo, dal sistema universitario come professori universitari,Pag. 4 è che anche le persone che sono state formate relativamente di recente, da 4/5 anni, hanno bisogno di essere continuamente formate perché il progresso in questo campo è velocissimo. Se io penso ai migliori studenti del mio corso che sono usciti dal Politecnico di Torino 3/4 anni fa, questi ragazzi non sanno cosa c'è dentro ChatGPT, semplicemente perché quella tecnologia non esisteva ancora, era impossibile insegnarla.
  Quindi un primo punto di attenzione sarà quello della formazione permanente, upskilling reskilling, per cui il sistema corrente probabilmente non è equipaggiato a scalare. Dobbiamo ripensare i modi di insegnare l'intelligenza artificiale e di formare il lavoratore.
  Un secondo aspetto è sicuramente quello della tutela del lavoro, è quello di mettere al centro l'uomo rispetto all'utilizzo dell'intelligenza artificiale.
  Non possiamo nasconderci dietro un dito. In questo momento, soprattutto negli Stati Uniti ma non solo, l'intelligenza artificiale di tipo generativo sta ottimizzando i processi tagliando posti di lavoro. Quindi oggi è possibile scrivere un comunicato stampa tramite algoritmi di intelligenza artificiale generativa e questo significa che tutta una classe di lavori legati alla creatività in questo momento sono a rischio.
  È molto importante, da un punto di vista normativo, da una parte fare in modo che non ci sia mai il pilota automatico dell'intelligenza artificiale, ma sia sempre un co-pilotaggio, deve esserci sempre una responsabilità umana per tutelare i posti di lavoro e per tutelare i consumatori. I consumatori hanno diritto di sapere se il bugiardino di un medicinale è stato scritto da una persona fisica o è stato scritto da un algoritmo, e in caso di errore deve esserci una chiara catena di responsabilità.
  C'è però un terzo aspetto sull'intelligenza artificiale che non viene spesso considerato. L'intelligenza artificiale può diventare uno strumento potentissimo per la sicurezza sul posto di lavoro. Purtroppo leggiamo con una regolarità straziante di incidenti sul lavoro, giovani donne che vengono stritolate da un telaio perché hanno messo male la cuffietta che avrebbe dovuto proteggere i capelli. Abbiamo letto recentemente, sul territorio di Torino, quindi molto vicino a me, a casa mia, dei cinque operai che hanno perso la vita. I sensori possono essere utilizzati, questi dati possono essere utilizzati per ribaltare il paradigma della sicurezza sul lavoro.
  Oggi la sicurezza sul lavoro è a carico del lavoratore, al lavoratore vengono spiegate le procedure di sicurezza ed è sua responsabilità attuarle. Con l'intelligenza artificiale possiamo ribaltare questo paradigma e far sì che siano le macchine responsabili ed equipaggiate per rendere sicuro il posto di lavoro. La macchina deve percepire se c'è l'uomo intorno in una situazione di pericolo e bloccarsi.
  Questo può essere un cambiamento gigantesco, può essere una grandissima opportunità per mettere in sicurezza i lavoratori.
  La mia conclusione è che tutto questo, i rischi e le opportunità, può essere colto solo ed esclusivamente all'interno di un quadro normativo certo e tutto questo può essere colto solo con una certificazione chiara, precisa e ben codificata dell'intelligenza artificiale. Certificazione che da una parte tutelerà i cittadini e i consumatori e dall'altra renderà chiaro e trasparente per aziende di varie dimensioni come poter utilizzare questa nuova tecnologia a vantaggio dei propri prodotti.

  PRESIDENTE. Grazie. Chiedo tra chi è collegato se c'è qualcuno che vuole fare delle domande. Ha chiesto di intervenire l'onorevole Pavanelli. Prego.

  EMMA PAVANELLI. Dottoressa, la ringrazio molto, ci ha dato degli spunti molto interessanti. La questione della formazione permanente sicuramente è un punto importante fondamentale, bisogna capire anche come poterla attuare. Ho sentito anche imprenditori nel campo dell'intelligenza artificiale che addirittura mi stanno parlando di evoluzione praticamente quasi settimanale, non di anni o di mesi ma addirittura settimanale, pertanto sicuramente questo punto è importante e fondamentale.Pag. 5
  Io intanto le chiedo se ci può inviare la sua relazione che mi farebbe piacere poter approfondire.
  In particolare il punto relativo alla parte legislativa, che sarebbe uno degli scopi di questa indagine conoscitiva, a come poter arrivare a mettere almeno una prima pietra. Perché abbiamo visto che in Europa stanno lavorando a un testo che temo sia già vecchio rispetto alle necessità di oggi visto che è stato lavorato negli ultimi due-tre anni.
  Dal punto di vista legislativo, quali sono i paletti che secondo lei andrebbero approfonditi ulteriormente?

  BARBARA CAPUTO, Direttrice dell'Hub sull'intelligenza artificiale (AI-Hub) del Politecnico di Torino. La ringrazio per questa domanda. Sono assolutamente d'accordo con lei, è estremamente complicato l'aspetto legislativo proprio perché è una tecnologia che si muove in maniera molto veloce. Io credo che un punto di partenza fondamentale sia quello della certificazione. Certificazione per l'intelligenza artificiale significa (faccio un esempio) che se si mette un algoritmo per il quale un veicolo deve frenare in automatico se c'è un ostacolo a una distanza di due metri, dobbiamo sapere la garanzia che ci dà questo software (perché alla fine quando parliamo di intelligenza artificiale stiamo parlando di un prodotto software) che il veicolo frenerà al massimo a due metri di distanza in un secondo, un millisecondo, dieci secondi, eccetera...
  Queste cose vengono richieste oggi per tutti i prodotti che vengono messi in produzione e commercio. Questo tipo di certificazione deve essere fatto anche per le AI, deve essere fatto per gli algoritmi che vengono messi sulle macchine. Se questo non verrà fatto non sarà possibile ammettere l'intelligenza artificiale nelle cose e questo per il nostro Paese sarà un danno grandissimo, perché comunque la manifattura per noi è fondamentale.
  Dobbiamo certificare l'intelligenza artificiale messa nella gestione del personale, perché dobbiamo capire se c'è qualche forma di discriminazione che possa aprire una class action, quindi c'è da una parte l'aspetto del cittadino che non deve essere discriminato e dall'altra la certezza delle aziende che devono essere sicure di poter utilizzare questo meccanismo in maniera certa.
  La certificazione è una partita che si sta giocando adesso, perché nel momento in cui si discute l'AI Act poi si decidono anche le regole sulla messa a terra. È chiaro che «cosa significa» certificare un prodotto software per multinazionali o per piccole-medie e piccolissime microimprese, come il tessuto produttivo italiano, sono cose molto diverse; cosa significa certificare in ambito servizi è molto diverso da cosa significa certificare per manifattura, per agritech. Quindi per il Sistema Paese presidiare questo tema della messa a terra, che significa certificazione delle AI, è veramente un punto fondamentale. Io credo sia un punto da tenere sotto controllo con molta attenzione.

  PRESIDENTE. Volevo chiedere una cosa sulla certificazione: che caratteristiche deve avere il certificatore? Perché il tema credo che sia delicato.

  BARBARA CAPUTO, Direttrice dell'Hub sull'intelligenza artificiale (AI-Hub) del Politecnico di Torino. La certificazione ha aspetti diversi a seconda che l'effetto della certificazione sia sugli oggetti oppure all'interno di quelli che vengono chiamati commander system. Quindi nel caso di un AI che dà raccomandazioni c'è tutto un protocollo per la certificazione, nel caso di un AI che concerne regole di sicurezza funzionale qui si fa riferimento ai tavoli internazionali di Safety Integrity Service (i SIL), dove i diversi livelli indicano vari livelli di sicurezza. Ad esempio quando si parla di SIL, se è un SIL 1 vuol dire che ha il livello più basso di sicurezza. Quindi non è possibile montare software a SIL 1 sui treni, su nulla che si muova; sugli aerei non si può montare: bisogna arrivare almeno a un livello 3. Quindi un ente certificatore io credo che da una parte dovrebbe essere in grado di interloquire con i tavoli internazionali per andare a rappresentare quelle che sono le esigenze dei verticali economici Pag. 6del Paese, dall'altro dovrebbe creare un'interfaccia per creare un protocollo il più semplice e il più lineare possibile per tutta quella che è la struttura produttiva del Paese per andare poi a utilizzare questo tipo di tecnologia.
  Mi vengono in mente le camere di commercio, che sono una realtà capillare nel tessuto produttivo del Paese e che già adesso fanno da interfaccia tra quello che è il mondo produttivo e quello che è il mondo della regolamentazione. Lo sportello digitale dell'imprenditore è stato un grandissimo sforzo che è riuscito a portare in tutte le aziende la PEC e quindi l'abitudine a pensare a un mondo digitale. Quello potrebbe essere uno strumento in cui un ente certificatore, interfacciandosi con le camere di Commercio, potrebbe veramente andare a raggiungere in maniera capillare, e con una spesa la più bassa possibile, le nostre micro imprese e permettere quindi di far cogliere l'opportunità dell'intelligenza artificiale al nostro sistema produttivo.

  PRESIDENTE. Non essendoci altre richieste di intervento, ringrazio Barbara Caputo, Direttrice dell'Hub sull'intelligenza artificiale (AI-Hub) del Politecnico di Torino, e dichiaro conclusa l'audizione.

Audizione, in videoconferenza, di Stefano Armando Ceci, Senior innovation advisor presso LVenture group Spa.

  PRESIDENTE. L'ordine del giorno reca, ai sensi dell'articolo 144, comma 1, del Regolamento, l'audizione di Stefano Armando Ceci, Senior innovation advisor presso LVenture group Spa, nell'ambito dell'indagine conoscitiva sull'intelligenza artificiale: opportunità e rischi per il sistema produttivo.
  Invito chi interviene a volerlo fare sinteticamente, in modo da lasciare più spazio possibile alle domande dei commissari, riservando gli ulteriori approfondimenti ad un eventuale contributo scritto, che verrà volentieri acquisito ai lavori della Commissione, focalizzandosi sull'oggetto dell'indagine come definito dal programma.
  Do la parola a Stefano Armando Ceci, Senior innovation advisor presso LVenture group Spa ricordando che il tempo complessivo a disposizione è di circa otto minuti.

  STEFANO ARMANDO CECI, Senior innovation advisor presso LVenture group Spa. Grazie, presidente. Buongiorno a tutti e a tutte, onorevoli deputate e deputati della Repubblica.
  Un recente rapporto di McKinsey stima che la sola intelligenza artificiale generativa (quella, per intenderci, di ChatGPT e sistemi simili) può portare a 4,4 miliardi all'anno di valore all'economia globale e fare risparmiare il 60/70 per cento del tempo ai lavoratori.
  Siamo di fronte a un vero e proprio cambio di paradigma economico sociale culturale e politico, un valore economico che le aziende ovviamente si preparano a cogliere anche nel nostro Paese.
  Secondo gli ultimi dati del Politecnico di Milano il 61 per cento delle grandi aziende italiane ha avviato il processo di intelligenza artificiale e il 34 per cento lo sta già adottando.
  Dedico il mio impegno professionale all'innovazione, seguo diverse start-up che applicano intelligenza artificiale, collaboro stabilmente con un Venture Capital, sono il Project Leader di Argo, l'acceleratore di start-up del turismo della rete CDP Venture Capital sostenuto dal Ministero del Turismo, insegno all'Università IULM di Milano e all'Università di Padova e promuovo Futurew3b, il think tank italiano che si occupa di analizzare e approfondire gli effetti culturali, economici, sociali e politici prodotti dall'innovazione digitale in ambito blockchain, IA e realtà estese e aumentate.
  Dal mio punto di osservazione, da questo incrocio tra università, start-up e Venture Capital si vede bene ciò che accade ed è un fiorire di progetti e di nuove imprese, come sta succedendo per la verità in altre parti d'Europa e del mondo.
  I nostri giovani talenti sono all'opera, il sistema della ricerca universitaria pure, dovremo ulteriormente rafforzarlo. Nascono decine di start-up in diversi campi di applicazione dell'intelligenza artificiale e le Pag. 7grandi aziende hanno avviato nuovi progetti che prevedono l'applicazione dell'intelligenza artificiale nella produzione e fornitura di servizi e prodotti.
  Ciò che sta per accadere è ciò che è accaduto sempre nel nostro Paese in frangenti come questo. Ha inizio una nuova forbice, una nuova forma di digital divide, di digital gap, che potremmo chiamare AI divide.
  L'impatto dell'intelligenza artificiale sul mondo del lavoro e dell'economia potrebbe generare un nuovo divario tra coloro che sapranno sfruttare i vantaggi offerti da sistemi basati su intelligenza artificiale e coloro i quali continueranno a fare le cose come hanno sempre fatto.
  Siamo da anni impegnati a colmare il digital gap che ci separa da altri Paesi e che ci mette in una condizione di scarsa competitività soprattutto in alcuni settori dell'economia. Nei prossimi mesi dovremo essere capaci di mettere in campo politiche che limitino il più possibile la generazione di AI divide tra start-up e grandi imprese da un lato e PMI e pubblica amministrazione dall'altro.
  Il nostro tessuto produttivo è costituito come sappiamo in gran parte da piccole e medie imprese, che da anni rincorrono l'evoluzione digitale digitale con modesti risultati, al punto che ancora oggi in settori come il commercio, l'artigianato e il turismo il digital gap da colmare per migliorare la competitività è elevato.
  Anche la pubblica amministrazione, in particolare nel settore della giustizia, dell'educazione, della formazione, della sicurezza, della previdenza e della sanità continua a registrare ritardi nell'introduzione e implementazione di servizi e soluzioni digitali già possibili, quando addirittura disponibili, causando così inefficienze e sprechi di tempo e di denaro.
  In tale contesto, all'alba delle numerose applicazioni che l'intelligenza artificiale genera e sarà in grado di generare, l'Italia non può farsi bastare ciò che di interessante e positivo sta accadendo, per ora, solo sul versante della ricerca applicata, delle start-up e delle grandi imprese, poiché potremmo trovarci nella condizione di alimentare l'AI divide se ci dimenticassimo di sostenere l'evoluzione anche nelle PMI e della pubblica amministrazione.
  Come possiamo evitare questo divario e come possiamo favorire la più ampia diffusione e la più corretta implementazione dell'intelligenza artificiale nei nostri sistemi sociali ed economici è la sfida di questo tempo. Ed è bene approfondire l'opportunità e i rischi a pochi mesi ormai all'entrata in vigore l'AI Act dell'Unione europea.
  Ai fini e per gli obiettivi della vostra indagine conoscitiva sull'intelligenza artificiale, vi propongo pertanto di assumere una visione d'insieme che combina ciò che l'Italia dovrà fare a seguito dell'imminente approvazione dell'AI Act europeo, in particolare istituendo un'authority di controllo, con ciò che l'Italia ha già pianificato di fare con il PNRR e ciò che stanno facendo l'Agenzia per l'Italia digitale, il Dipartimento per la trasformazione, il MIMIT, il MIUR e la CDP Venture Capital SGR.
  In questa visione strategica occorrerebbe innanzitutto assegnare all'authority sull'AI, che andrà costituita a seguito dell'approvazione finale dell'AI Act europeo un vero e proprio compito proattivo di governance dello sviluppo e dell'implementazione dell'intelligenza artificiale in Italia, oltre a quello di monitoraggio dell'applicazione e dell'attuazione del regolamento e di controllo e di verifica della conformità delle soluzioni di intelligenza artificiale utilizzate dalle imprese.
  L'ipotesi che l'authority sull'intelligenza artificiale sia considerata come agenzia di supervisione e sviluppo, includendo al proprio interno compiti e attività oggi assegnati ad altre amministrazioni dello Stato, potrebbe rappresentare quello scarto razionale distintivo e originale dell'Italia verso una più efficiente ed omogenea implementazione dell'intelligenza artificiale in tutti i settori economici e sociali del nostro Paese.
  Il nostro Governo, a fine 2021, ha adottato il Programma strategico sull'intelligenza artificiale 2022-2024, frutto del lavoro congiunto del Ministero dell'università e della ricerca, del Ministero dello sviluppo economico (ora MIMIT) e del Ministero per Pag. 8l'innovazione tecnologica e la transizione digitale, supportati dal gruppo di lavoro sulla Strategia nazionale per l'intelligenza artificiale.
  Le 24 policy contenute nel Programma sono un buon punto di partenza. Andrebbero ora aggiornate alla luce dell'AI Act europeo e occorrerebbe stabilire priorità e modalità di intervento approntando un piano operativo, che ne definisca risorse, tempi e che ne misuri gli impatti.
  In tale ambito di attività, per evitare l'espandersi di un'AI divide tra start-up e grandi imprese da un lato e PMI e pubblica amministrazione dall'altro suggerirei di promuovere e sostenere programmi nazionali open innovation specificatamente dedicati alle PMI del manifatturiero, del commercio, dell'artigianato e del turismo, e promossi con il concorso delle università, dei centri di ricerca applicata e delle start-up innovative. I programmi di open innovation potrebbero alimentare un vero e proprio ecosistema di intelligenza artificiale, attraverso la contaminazione e la condivisione tra piccole e medie imprese, la ricerca universitaria applicata e le giovani imprese innovative.
  Il sottosegretario di Stato con delega all'innovazione tecnologica, onorevole Alessio Butti, ha preannunciato lo scorso mese la nascita presso Cdp Venture Capital Sgr di uno specifico fondo per le start-up dell'intelligenza artificiale. Una parte consistente di tale dotazione potrebbe andare nella direzione di sostenere le start-up dell'intelligenza artificiale che sviluppano soluzioni innovative per la pubblica amministrazione, rafforzando così il settore GovTech in Italia e definendo allo stesso tempo opportunità e modalità per favorire e premiare il trasferimento tecnologico delle start-up innovative verso la pubblica amministrazione.
  L'Europa ha definito con chiarezza il proprio approccio, ha determinato un sistema di regole di governance e ha indicato agli Stati membri la strada da percorrere. L'Italia ora può definire cosa sia strategico e cosa sia carente alle proprie specifiche caratteristiche per sostenere al meglio lo sviluppo dell'intelligenza artificiale.
  Grazie a tutte e a tutti per l'ascolto e per l'opportunità di poter contribuire ai lavori del nostro Parlamento.

  PRESIDENTE. Non essendoci richieste di intervento, ringrazio Stefano Armando Ceci, Senior innovation advisor presso LVenture group Spa. Autorizzo la pubblicazione in allegato al resoconto stenografico della seduta odierna della documentazione consegnata da Stefano Armando Ceci (vedi allegato 1) e dichiaro conclusa l'audizione.

Audizione, in videoconferenza, di Vincenzo Colarocco, Membro del Circolo giuristi telematici.

  PRESIDENTE. L'ordine del giorno reca, ai sensi dell'articolo 144, comma 1, del Regolamento, l'audizione di Vincenzo Colarocco, Membro del Circolo giuristi telematici, nell'ambito dell'indagine conoscitiva sull'intelligenza artificiale: opportunità e rischi per il sistema produttivo.
  Invito chi interviene a volerlo fare sinteticamente, in modo da lasciare più spazio possibile alle domande dei commissari, riservando gli ulteriori approfondimenti ad un eventuale contributo scritto, che verrà volentieri acquisito ai lavori della Commissione, focalizzandosi sull'oggetto dell'indagine come definito dal programma.
  Do la parola a Vincenzo Colarocco, Membro del Circolo giuristi telematici ricordando che il tempo complessivo a disposizione è di circa otto minuti.

  VINCENZO COLAROCCO, Membro del Circolo giuristi telematici. Grazie e buongiorno. Penso di avere un problema tecnico perché non si avvia il video, era acceso sino a un minuto fa.

  PRESIDENTE. È autorizzato a procedere così.

  VINCENZO COLAROCCO, Membro del Circolo giuristi telematici. Mi dispiace non potermi mostrare, il video funzionava sino a un secondo fa. Innanzitutto ringrazio la Commissione per l'invito alla presente audizione.Pag. 9
  Mi presento brevemente, per raccontare un po' il mio punto di osservazione. Sono Vincenzo Colarocco, avvocato a livello professionale, e a livello scientifico ho l'opportunità di seguire il tema dell'intelligenza artificiale. Mi occupo di diritto delle nuove tecnologie e ho seguito progetti sia a livello scientifico che professionale dell'applicazione dell'intelligenza artificiale.
  Intelligenza artificiale che è una grande opportunità per l'industria, l'economia e lo sviluppo delle PMI italiane. Questo in quanto andrà a determinare una trasformazione del mondo del lavoro e in particolare su alcune mansioni. Tant'è vero che non a caso solo il 30 per cento degli italiani pensa che andrà a migliorare l'economia collocandosi in un nuovo futuro, questo da dati di fonte Istat del dicembre del 2021.
  La regolamentazione sull'intelligenza artificiale, la proposta che pende innanzi all'Unione europea, come vi sarà stato già illustrato, è stata approvata in prima lettura il 14 giugno scorso e con un'ipotesi finale entro la fine del 2023, per l'approvazione si auspica entro il giugno 2024.
  Come sapete, la normativa dell'AI Act è basata sul rischio, appunto come il GDPR (Regolamento (Ue) 2016/679, regolamento generale sulla protezione dei dati).
  Mi preme concentrarmi e porre l'attenzione su quello che può essere maggiormente rilevante per le PMI e per questa audizione. Infatti la normativa va a individuare varie categorie di rischi, tra queste i sistemi di intelligenza artificiale ad alto rischio.
  Quando ricadiamo in questa fattispecie numerosi aspetti dovranno essere valutati prima dell'emissione del sistema, sia esso prodotto o dei servizi, sul mercato.
  Ma quali sono appunto i temi che possono essere rilevanti? Possono esserlo la carriera, l'occupazione, la gestione del lavoratore, l'accesso al lavoratore autonomo, la gestione e il funzionamento di infrastrutture critiche come per esempio la fornitura di acqua, di gas e l'utilizzo della rilevazione biometrica.
  In questi casi e in queste ipotesi è necessario fare obbligatoriamente una valutazione ex ante, una valutazione di conformità, dove le imprese sono chiamate a redigere questo documento che dovrà essere valutato ex ante da soggetti terzi e indipendenti con la cosiddetta autorità di notifica, per verificare la conservazione, la trasparenza e il rispetto dei principi e degli obblighi.
  Il Parlamento sarà chiamato a nominare, ed è questo uno dei punti di attenzione a nostro avviso, sia l'autorità di notifica e sia l'autorità nazionale di controllo. L'autorità di notifica è quella autorità che sarà responsabile della valutazione di conformità e che il Parlamento andrà a designare o a istituire, tra i quali possono essere designati anche gli organismi nazionali di accreditamento.
  Ma il punto rilevante è l'autorità nazionale di controllo, la quale avrà la responsabilità di attuare e applicare il regolamento e di coordinare le attività affidate allo Stato membro.
  È rilevante perché in particolare il Parlamento potrà istituirla o andarla a designare. Avrà un ruolo strategico nell'applicazione e nella vigilanza dell'intelligenza artificiale del settore produttivo italiano.
  La stessa normativa richiede una competenza multidisciplinare e profonda non solo delle tecnologie, dei dati, del calcolo, dei diritti fondamentali e dei rischi. Quindi si richiede una competenza legale, una competenza tecnica dell'intelligenza artificiale, della tecnologia, una competenza in relazione ai diritti umani, all'etica, alla sicurezza informatica. Ma non solo, ancor di più la privacy, la protezione dei dati, all'economia, ai mercati, a quelle che saranno le tecnologie emergenti, soprattutto le competenze interdisciplinari e la collaborazione internazionale.
  L'autorità che verrà designata avrà un ruolo da gate possiamo dire, che inciderà sul mercato, sull'efficienza e sull'efficacia dell'industria, e può direttamente e indirettamente andare a orientare lo sviluppo e l'applicazione dell'intelligenza artificiale nel mercato italiano, in chiave competitiva o anticompetitiva, come già abbiamo assistito in questi anni e come sta accadendo con altre autorità indipendenti.Pag. 10
  Tale autorità, a nostro avviso, non può diventare un ostacolo e, nella definizione di quello che è il funzionamento dell'autorità indipendente, dovrà essere posta dal Parlamento particolare attenzione alle tempistiche. È necessario che vi siano per le aziende e per le PMI tempi certi. Ma dovrà essere anche proattiva, cito ad esempio come già nella giornata di ieri la Competition Authority ha pubblicato un set di principi che mirano a garantire la protezione dei consumatori e una sana concorrenza, e andrà a svolgere anche la consulenza a fornitori di piccole dimensioni.
  Questa scelta non sarà scevra di rischi, perché sarà poi necessario andare a definire in maniera puntuale quelli che sono i requisiti per la scelta dei dirigenti, dei funzionari e del board dell'autorità e bisogna evitare che si trasformi in mera burocrazia.
  Ma cosa può fare già da oggi il Parlamento? Può andare a investire nella formazione accademica con creazione di programmi di formazione ad hoc, pensati e sviluppati in collaborazione con l'industria, andando a intercettare le esigenze; può andare a finanziare l'istruzione, la ricerca e la costruzione di nuove competenze, che debbano essere inserite sia nel tessuto economico italiano, privato e pubblico, e sia nell'autorità indipendente che verrà designata e istituita.
  Sarà necessario creare dei programmi ad hoc per le PMI, affinché possano strutturarsi sin da ora per rispettare la compliance normativa e non cadere nell'aumento dei costi, come si è assistito sino ad oggi. Ovvero migliorare totalmente la compliance e mettere sul mercato prodotti e servizi che possano ledere le libertà fondamentali dei cittadini e degli interessati, oppure di non poter accedere a tale compliance perché c'è un aumento dei costi.
  Si può già da ora pensare a agevolazioni fiscali o incentivi alle aziende per le aziende che investono nella formazione dei propri dipendenti in materia di intelligenza artificiale. Questo per incentivare le imprese a costruire quelle competenze di cui dicevamo, che sono necessarie per affrontarle perché sono competenze eterogenee, e può offrire ulteriori incentivi alle aziende e creare posti di lavoro nello specifico settore.
  In conclusione, le scelte relative all'autorità di controllo e quelle da effettuare nell'armonizzazione dell'ordinamento interno al regolamento sull'intelligenza artificiale segnerà un momento storico e decisivo.
  Occorrerà governare la tecnologia che deve essere al servizio dell'uomo avendo cura di cercare un migliore equilibrio affinché non si pregiudichi lo sviluppo e la trasformazione del mercato, né tanto meno vengano intaccati i diritti e le libertà fondamentali dei cittadini. Ciò si può raggiungere con azioni che possono già essere intraprese dal Parlamento in vista della prossima rivoluzione socio economica.
  Vi ringrazio per l'attenzione.

  PRESIDENTE. Non essendoci richieste di intervento, ringrazio l'avvocato Vincenzo Colarocco, Membro del Circolo giuristi telematici, e dichiaro conclusa l'audizione.

Audizione, in videoconferenza, di Marco Gori, Ordinario di ingegneria dell'informazione presso l'Università degli studi di Siena.

  PRESIDENTE. L'ordine del giorno reca, ai sensi dell'articolo 144, comma 1, del Regolamento, l'audizione di Marco Gori, Ordinario di ingegneria dell'informazione presso l'Università degli studi di Siena, nell'ambito dell'indagine conoscitiva sull'intelligenza artificiale: opportunità e rischi per il sistema produttivo.
  Invito chi interviene a volerlo fare sinteticamente, in modo da lasciare più spazio possibile alle domande dei commissari, riservando gli ulteriori approfondimenti ad un eventuale contributo scritto, che verrà volentieri acquisito ai lavori della Commissione, focalizzandosi sull'oggetto dell'indagine come definito dal programma.
  Do la parola a Marco Gori, Ordinario di ingegneria dell'informazione presso l'Università degli studi di Siena ricordando che il tempo complessivo a disposizione è di circa otto minuti.

Pag. 11

  MARCO GORI, Ordinario di ingegneria dell'informazione presso l'Università degli studi di Siena. Buongiorno. Innanzitutto ringrazio e colgo l'occasione di sottolineare quanto penso sia importante questa tipologia di contatti, al di là della breve audizione di oggi; ovviamente offro la mia disponibilità a eventuali dettagli su quello di cui oggi parlo.
  Sostanzialmente, vedendo il documento che avete presentato, ritengo emerga, parlando di quadro organico dello stato dell'arte attuale dell'intelligenza artificiale, la differenza significativa tra il mondo delle grandi imprese e le piccole e medie imprese.
  Nel primo caso c'è già una connessione abbastanza significativa con il mondo dell'intelligenza artificiale, nel secondo direi che è pressoché assente. Visto il panorama delle aziende italiane, ritengo che rappresenti un aspetto davvero strategico spingere soprattutto questa seconda componente.
  A proposito di fenomeni globali, di opportunità, di criticità, di rischi, credo che sia davvero importante che i governi in questo periodo prendano atto anche di questa discussione, di cui probabilmente avrete sentito, cioè della Lettera aperta su rischi e opportunità dell'intelligenza artificiale.
  Come probabilmente sapete, la comunità scientifica è piuttosto divisa su questi aspetti. Anche persone che hanno avuto strette collaborazioni, mi viene in particolare in mente persone che hanno conseguito il Turing Award, come Geoffrey Hinton, Yoshua Bengio, Yann Le Cun, sono poi su posizioni diverse.
  Quello che mi pare importante menzionare, a proposito di criticità e rischi, è il fatto che l'esplosiva affermazione dell'intelligenza artificiale si basa sull'accesso a grandi collezioni di dati. È questo che sta differenziando in maniera significativa le attività nelle aziende dei vari Paesi del mondo. Penso che questo sia l'aspetto più critico che suggerirei alla Commissione di considerare, ovvero la possibilità di regolamentare in modo progressivo, magari di concerto con la Commissione europea, questa concentrazione di dati, perché è questo che allo stato attuale differenzia le tecnologie.
  A questo proposito credo che se da un lato ovviamente ci sono rischi, perché è ben evidente che l'affermazione dell'intelligenza artificiale può trasformare, verosimilmente, molte attività e soprattutto, a mio avviso, compiere i cosiddetti lavori di concetto di basso livello e dunque, le tecnologie dell'intelligenza artificiale generativa, come quelli dei large language model, verosimilmente contribuiranno al rimpiazzo di molte attività di lavoro in tanti Paesi del mondo.
  In Italia penso che, viste le straordinarie opportunità per esempio nel mondo del turismo e del commercio e anche soprattutto nell'artigianato, sia molto importante che i giovani da un lato colgano le grandissime opportunità che l'intelligenza artificiale offre. Soprattutto per il business anche di per sé, quindi nello sviluppo delle tecnologie. Ma al tempo stesso anche le grandi opportunità che si potrebbero spalancare in questi settori: faccio riferimento soprattutto all'artigianato che a mio avviso è poco coltivato rispetto alle potenzialità e che potrebbe beneficiare anche dall'evoluzione dell'intelligenza artificiale.
  Menziono anche opportunità a lungo termine. L'Italia è un Paese con grandi competenze scientifiche nel settore e con persone di grande prestigio internazionale. Qualcuno pensa che oramai i giochi siano già fatti e che le grandi aziende del web abbiano già chiuso la partita: io credo che questa sia un'analisi assolutamente non corrispondente alla realtà. Ci sono motivi molto chiari per coglierlo, queste aziende hanno sfruttato tecnologie oramai mature da diversi anni grazie all'accentramento dei dati. Penso che la loro straordinaria capitalizzazione, che oramai si stima sostanzialmente commisurabile a quella del patrimonio immobiliare italiano, effettivamente non abbia chiuso la partita, perché l'intelligenza artificiale in alcun modo è in un momento di stabilità. Per cui se da un lato servono politiche per le piccole e medie imprese, serve anche coltivare il sogno di progressi che portino l'Italia e l'Europa a soluzioni alternative. Io sono profondamente convinto che il mondo scientifico e il Pag. 12mondo industriale potrebbe giocare in Europa e in Italia un ruolo molto importante.
  Concludo, sostanzialmente, con una proposta per spingere, guardando più a breve termine e a medio termine, forse con attività meno rischiose e certamente con più alta probabilità di successo, l'intervento nel mondo del commercio, nel mondo dell'artigianato, nel mondo del turismo. Penso che una soluzione chiave sia avvicinare il mondo dell'università al mondo delle imprese. Questa è ovviamente una frase che si ripete in tutti questi contesti, ma la mia proposta precisa almeno per quanto riguarda il mondo dell'università è la seguente. È quella di far sì che i giovani ricercatori e i giovani professori associati, tutti coloro che sono coinvolti nell'attività accademica e sono oggetto di valutazione, vengano valutati – per la loro progressione di carriera – anche per l'attivazione di concrete attività con le piccole e medie imprese, attività che potrebbero essere opportunamente misurate da commissioni, sia le commissioni di abilitazione scientifica nazionale ma anche organi come per esempio quello del Cini, Consorzio interuniversitario nazionale italiano, o dell'Associazione italiana intelligenza artificiale, a supporto. Questo penso potrebbe offrire numerose opportunità.
  Termino volentieri rispondendo a curiosità. Ho allegato un documento un pochino più completo, ma come ho accennato il mio compito, come chiunque fa il mio mestiere, è quello di essere al servizio, lo faccio per dovere e per piacere.

  PRESIDENTE. L'onorevole Cappelletti voleva prendere la parola e fare una domanda.

  ENRICO CAPPELLETTI. Grazie presidente. Grazie di quello che ha detto il professor Gori, che ci ha parlato un po' dei rischi legati all'intelligenza artificiale.
  Sappiamo che i rischi sono diversi: il rischio di discriminazione, il rischio di violazione della privacy, il rischio di disoccupazione, particolarmente all'attenzione di questa Commissione, il rischio di manipolazione dell'informazione. Però secondo me il rischio maggiore in questo momento è quello di perdita delle opportunità per le piccole e medie imprese, esattamente come è stato citato prima.
  Le domande sono queste: come possiamo tutelarci da questo rischio? Come creare le condizioni perché non venga persa questa opportunità straordinaria che non possiamo permetterci di perdere? Come limitare uno dei rischi cui lei ha accennato, cioè quello di collezione della raccolta di grandi quantità di dati che è legato ovviamente all'intelligenza artificiale senza la quale non avremmo un'intelligenza artificiale?

  MARCO GORI, Ordinario di ingegneria dell'informazione presso l'Università degli studi di Siena. Guardi onorevole, innanzitutto penso alla possibilità di collegare in maniera forte i ricercatori delle AI con le imprese. Per darle un numero, i ricercatori nel settore delle AI, indicati almeno dal laboratorio del Cini di cui parlavo, sono almeno un migliaio, persone di alto profilo, alcune di notevole profilo internazionale.
  Serve stimolare, come accennavo, il fatto che loro stessi – oltre a stimoli che voi siete ben più capaci di me di fornire per le imprese – come lato università si facciano proattivi. Serve verosimilmente stimolare il fatto che i professori stessi siano alla ricerca delle piccole e medie imprese per spingerle e per vedere in che misura, sulla loro attività di primario interesse, possono concorrere a utilizzare queste tecnologie. Attenzione, in questo caso faccio riferimento alle tecnologie primariamente sviluppate dalle grandi aziende, se si pensa ai large language model, io uso tipicamente la metafora del drago: siamo attaccati alle mammelle del drago facendo prompt engineering, con un termine tecnico, cioè si sviluppano tecnologie specifiche ma siamo pur sempre attaccati a questi grandi draghi.
  Servono due approcci. Uno molto diretto, in questo periodo in cui queste tecnologie si possono concretamente attivare per le piccole e medie imprese; dall'altro immaginare, come accennavo fa parte della concretezza delle attività scientifiche, anchePag. 13 un mondo diverso che è assolutamente verosimile.
  Quello che abbiamo raggiunto adesso, come ho accennato, non è affatto stabile, è semplicemente la soluzione tecnologica più veloce ed efficace di idee che erano state seminate 20/30 anni fa. Questo per i due aspetti.

  PRESIDENTE. Non essendoci altre richieste di intervento, ringrazio Marco Gori, Ordinario di ingegneria dell'informazione presso l'Università degli studi di Siena. Autorizzo la pubblicazione in allegato al resoconto stenografico della seduta odierna della documentazione consegnata dal professor Marco Gori (vedi allegato 2) e dichiaro conclusa l'audizione.

Audizione, in videoconferenza, di Enrico Castanini, Amministratore unico di Liguria digitale Spa.

  PRESIDENTE. L'ordine del giorno reca, ai sensi dell'articolo 144, comma 1, del Regolamento, l'audizione di Enrico Castanini, Amministratore unico di Liguria digitale Spa, nell'ambito dell'indagine conoscitiva sull'intelligenza artificiale: opportunità e rischi per il sistema produttivo.
  Invito chi interviene a volerlo fare sinteticamente, in modo da lasciare più spazio possibile alle domande dei commissari, riservando gli ulteriori approfondimenti ad un eventuale contributo scritto, che verrà volentieri acquisito ai lavori della Commissione, focalizzandosi sull'oggetto dell'indagine come definito dal programma.
  Do la parola a Enrico Castanini, Amministratore unico di Liguria digitale Spa ricordando che il tempo complessivo a disposizione è di circa otto minuti.

  ENRICO CASTANINI, Amministratore unico di Liguria digitale Spa. Buongiorno a tutti.
  Ieri ho partecipato a un convegno organizzato da un sindacato in cui il tema era ovviamente l'intelligenza artificiale. Questo mi fa proprio dire quanto sia centrale l'argomento.
  Una cosa importante che lì ho visto è, un po', la personalizzazione dell'intelligenza artificiale. Tutti a chiedere: ma l'intelligenza artificiale è buona o cattiva? L'intelligenza artificiale aiuta a creare posti di lavoro o invece è dannosa per i posti di lavoro? Quali sono le conseguenze sulle aziende, in particolare le piccole e medie imprese?
  In verità secondo me il tema è un pochettino da spostare, nel senso che l'intelligenza artificiale non è né buona né cattiva, al massimo bisogna ragionare sugli algoritmi.
  Plutarco, nel primo secolo d.C., nel suo tomo L'educazione dei figli, disse: «I giovani non sono vasi da riempire ma fiaccole da accendere».
  Adesso interroghiamoci invece sul processo di formazione di un'intelligenza artificiale. Sono indispensabili ambedue i punti. Un'intelligenza artificiale non può fare niente se non ha tantissimi dati, che adesso l'informatica gli permette di avere anche in maniera massiva. Ma poi il cuore di tutto è l'algoritmo, la fiaccola che dovrebbe accendere l'utilizzo di questi dati è l'algoritmo.
  In questo contesto ovviamente credo che la cosa importante quindi sarebbe ricordare che è sempre l'uomo che riempie il vaso, quello che nel vaso non c'è l'intelligenza artificiale non usa. Se non vengono considerati tutti i casi non può comportarsi in tutti i casi, se in qualche modo ci sono dei dati errati o dei comportamenti errati torniamo sempre all'uomo.
  Quindi mi piacerebbe tornare un po' più a un ragionamento di controllare i controllori, cioè di verificare come vengono fatti gli algoritmi e il modo di comportarsi.
  L'uomo che opera, lavora e vive la sua vita da cittadino è governato da tutta una serie di regolamenti, bisogna fare in maniera tale che anche gli algoritmi che reggono l'intelligenza artificiale seguano questi regolamenti.
  Seguiamo un po' il concetto di personalizzazione dell'intelligenza artificiale.
  Mi è venuto in mente questi pochi minuti in cui si cerca di fare un esame della situazione, che fra gli auditi, come parte in Pag. 14causa, sarebbe bello sentire anche l'intelligenza artificiale personalizzata. Allora ho pensato, giusto per capire un po' la situazione, di fare esattamente le domande che questa Commissione ha posto (ossia indagine conoscitiva sull'intelligenza artificiale: rischi e opportunità riguardanti la situazione italiana) all'algoritmo che noi usiamo abitualmente di intelligenza artificiale. Mi sono uscite fuori una quindicina di pagine, che poi magari mando a questa Commissione, che sono molto indicative per alcuni punti.
  Prima di tutto, è chiaro, ho controllato un attimo. Non è che ha preso un articolo: ha fatto veramente un collage di argomenti, di caratteristiche e di altre cose, qualcosa di molto lungo, come dicevo, preso da tante parti in maniera opportuna.
  Diciamo che come testimone che parla su se stesso è stato anche abbastanza oggettivo. Ci sono interi capitoli riguardanti le criticità, fra cui: «l'implementazione dell'AI comporta anche una serie di criticità tra cui: la mancanza di competenza, le imprese hanno spesso difficoltà a trovare personale con le competenze necessarie per sviluppare e implementare soluzioni AI; i costi, l'adozione dell'AI può comportare costi effettivi in particolare per le PMI»; «la complessità: l'AI è una tecnologia complessa che può essere difficile implementare e mantenere»; «i rischi: tra i rischi ci sono la perdita di posti di lavoro, l'AI può portare alla sostituzione di alcuni lavori umani, soprattutto in attività ripetitive e a basso valore aggiunto»; «la discriminazione: l'AI può essere utilizzata per discriminare persone ad esempio sulla base della razza, del sesso e dell'orientamento sessuale»; «la sicurezza: l'AI può essere utilizzata per sviluppare sistemi di arma automatica che potrebbero essere utilizzati per scopi dannosi».
  Alcuni suggerimenti per mitigare questi rischi sono: «iniziare con progetti pilota: è importante iniziare con progetti pilota su scala ridotta per testare la fattibilità e i potenziali benefici dell'AI»; «investire sulla formazione» (e questo è molto importante): «è importante investire nella formazione del personale sulle competenze necessarie per sviluppare e implementare soluzioni AI»; «elaborare politiche e procedure: è importante elaborare politiche e procedure per mitigare i rischi associati all'AI con la discriminazione e la sicurezza».
  Poi dedica pagine, devo dire, al vostro lavoro: «ricognizione della regolazione vigente ed esigenze di variante sulla regolamentazione».
  Quindi mi sembra che per essere un testimone, tra l'altro chiamato a parlare di se stesso, è stato abbastanza obiettivo, riferendo anche tutti i casi in cui l'intelligenza artificiale può sbagliare. Qui però bisogna andare a vedere un ragionamento di algoritmi.
  Quindi, come ogni attività umana viene regolamentata (ci sono le normative, le procedure) deve essere anche vigilato, organizzato e approfondito l'aspetto degli algoritmi, che sono la fiamma che accende tutte le cose.
  Per quanto riguarda il discorso dei posti di lavoro, la storia della tecnologia ci insegna che una nuova tecnologia non fa perdere posti di lavoro in generale, li trasforma. Basta pensare che, per esempio, le richieste di specialisti di intelligenza artificiale sono aumentate di 250 volte negli Stati Uniti e di quasi 100 in Italia, significa che i posti di lavoro si trasformano ma non vengono distrutti.
  Magari più critica potrebbe essere la situazione delle piccole e medie imprese, che specialmente in Italia stanno investendo pochissimo sull'argomento, quindi potrebbe essere un problema di aziende che non si riescono a integrare più che di posti di lavoro che la nuova tecnologia porta a perdere. La fase in cui molte volte si perdono i posti di lavoro non è tanto quella dell'infanzia di una tecnologia, in cui c'è questo grande turbinare di attività e azioni, ma semmai può essere quella più della maturità di una nuova tecnologia: a quel punto lì si arriva forse a perdere posti di lavoro.
  Credo di essere aver esaurito il tempo a disposizione.

Pag. 15

  PRESIDENTE. Grazie. Chiedo se vi siano colleghi che vogliono intervenire. La parola all'onorevole Cappelletti, prego.

  ENRICO CAPPELLETTI. Grazie, presidente. Proprio solo una domanda molto sintetica. Non so se ho capito bene, quindi volevo appunto un chiarimento.
  Lei ha detto che ci sono 250 richieste di posti di lavoro rispetto a una singola disponibilità in questo momento in cui ci troviamo ancora nella fase nascente di questa tecnologia. Ecco, vorrei una conferma di avere ben compreso.

  ENRICO CASTANINI, Amministratore unico di Liguria digitale Spa. Probabilmente mi sono espresso troppo velocemente.
  È aumentata di 250 volte negli Stati Uniti la richiesta di esperti di intelligenza artificiale, in Italia di 100 volte.
  Il problema è che non ci sono abbastanza esperti, non che il mercato non domandi posti di lavoro con questa specializzazione.

  PRESIDENTE. Vorrei fare io una domanda. Qual è il percorso di studi ideale per arrivare alla formazione di un esperto in intelligenza artificiale?

  ENRICO CASTANINI, Amministratore unico di Liguria digitale Spa. Ormai mi sono affezionato a quell'esempio che ho posto, «l'intelligenza artificiale è un vaso da riempire ma anche una fiaccola da accendere».
  Per quanto riguarda la fiaccola da accendere, gli algoritmi, che in qualche modo danno tutta una serie di procedure, chiaramente il percorso riguarda studiosi quali ingegneri, matematici, fisici, ovvero comunque di materie di tipo tecnico-scientifico. Però ricordiamoci che c'è, cosa fondamentale, il vaso da riempire, perché senza il vaso riempito tutti questi algoritmi non danno la possibilità di agire all'intelligenza artificiale, che è velocissima ad agire grazie anche ai computer superveloci che sempre di più abbiamo, perché ha bisogno di dati su cui operare, e questo ovviamente dipende dalla materia che interessa. Per esempio quando si tratta di chiedere una poesia a un'intelligenza artificiale, le persone che devono riempire i dati sono persone esperte in quel campo. Noi la usiamo per esempio per fare alcune offerte ripetitive nel campo delle telecomunicazioni e dell'informatica, a quel punto lì devono essere persone che conoscono bene le telecomunicazioni. Perché io devo riempire quel vaso per un certo settore specializzato con persone che sanno cosa mettere in termini di comportamenti, procedure, di come reagiscono alle situazioni.
  Per esempio, nel caso di un'intelligenza artificiale che io ho visto di recente, l'AI cerca di fare una diagnosi di una certa frattura e lo fa sulla base di milioni di fotografie di fratture: chiaramente qui sono i medici le persone che devono istruire e in qualche modo alimentare.

  PRESIDENTE. Altra domanda. Mi sembra di aver capito che appunto bisogna riempire questo vaso di cui parlava lei. È il caso di integrare secondo lei o è necessario integrare quasi tutti i percorsi di studio universitari con materie un po' più vicine a materie scientifiche o ingegneristiche o cose di questo tipo, per mettere in contatto il mondo dell'intelligenza artificiale, appunto gli algoritmi, con tutti i mondi?

  ENRICO CASTANINI, Amministratore unico di Liguria digitale Spa. Direi in realtà sempre meno. Io circa trent'anni facevo una cosa che si chiama «sistemi esperti», li progettavo quando ero un relativamente giovane ingegnere. Però in quel caso lì il problema era che per spiegare a un sistema come agire in qualunque campo il linguaggio era quello della macchina, quindi bisognava avere una forte competenza tecnica anche per riempire questo famoso vaso.
  Mentre adesso uno dei motivi che ha provocato questa esplosione in tutto il mondo dell'intelligenza artificiale è che le tecniche delle intelligenze artificiali permettono anche a una persona con relativamente basse conoscenze tecniche di trasferire il suo know-how, le sue caratteristiche, i suoi processi mentali in un certo campo Pag. 16in maniera molto più semplice e molto meno tecnica.
  Quindi rimangono sicuramente i supertecnici dell'intelligenza artificiale nel mondo dell'informatica, dell'ingegneria e della matematica direi essenzialmente, mentre invece il riempire il vaso con la parte più importante, quindi i big data da inserire, è molto più rapportato, rispetto a 30 anni fa che molte delle cose esistevano già, anche a un profano che, per esempio, deve raccogliere dati in metriche poetiche (io esco dal mio campo) e può essere molto più facile.
  Il segreto di questo boom è proprio il fatto che si riesce a riempire il vaso non tanto sugli algoritmi, che esistevano già e sono stati raffinati, neanche nella potenza informatica che ha permesso di fare cose molto più veloci e molto più selezionate, avere milioni di casi da inserire dentro, ma il fatto che la maggiore facilità di trasferire il sapere umano, la conoscenza umana in tantissimi campi, ha portato l'intelligenza artificiale specializzata in quel campo, perché non c'è più bisogno di conoscere. È la macchina che parla un linguaggio simil-umano e non più l'umano che deve, con conoscenze tecnologiche importanti, conoscere il linguaggio della macchina.

  PRESIDENTE. La parola all'onorevole Benzoni.

  FABRIZIO BENZONI. Sono velocissimo perché trovo molto interessante quest'audizione. Faccio una domanda provocatoria. Visto che nel rispondere alla domanda postale l'intelligenza artificiale ha mostrato una certa oggettività, e che quindi oltre a restituire velocemente tantissime informazioni quello che noi stiamo dicendo è che in alcuni casi l'intelligenza artificiale potrebbe essere più oggettiva nel dare una risposta, allora le chiedo: potrebbe essere che un giorno l'evoluzione sia quella dell'intelligenza artificiale che in maniera oggettiva sostituisce un giudice, cioè dà una sentenza che è oggettiva rispetto all'entropia che ogni giudice può avere? Può sostituire un medico nella decisione se operare o meno sulla base dei dati sostituendo anche la soggettività? Può sostituire un professore universitario nel dare un voto o un giudizio a uno studente perché è più oggettivo nel farlo?

  ENRICO CASTANINI, Amministratore unico di Liguria digitale Spa. Diciamo che se per esempio nel vaso intelligenza artificiale-giudice ci fossero milioni di sentenze, e l'algoritmo è molto buono, sicuramente nel fare la sentenza l'intelligenza artificiale potrebbe avere una base di milioni di similitudine da fare. Però questo non significa nulla perché se la base è sbagliata e l'algoritmo non accede a tutte le cose, il risultato ovviamente potrebbe essere una cosa terribile.
  È una specie di educazione. Quando un figlio cresce in un certo modo o in un altro dipende anche da cosa gli viene trasmesso come know-how e tutto: ma se la logica è «se uno ti dice scemo mollagli un pugno», se questo è nell'algoritmo è chiaro che l'intelligenza artificiale usa quello che trova.
  Il punto molto importante è che in verità questo pericolo di questo mostro un pochettino da fantascienza che impara da solo in questo momento è molto lontano, in questo istante se una cosa non c'è nel vaso non riesce ad agire, e il vaso è una problematica. Torniamo all'asino di Buridano, se una persona si trovasse di fronte a due scelte esattamente uguali con le stesse probabilità ne sceglierebbe una, magari a caso, mentre invece una macchina se non opportunamente istruita si bloccherebbe, quindi non siamo ancora a quel livello.
  Probabilmente sono le scienze neurologiche che potrebbero darci un avvicinamento a questo campo, ma adesso siamo molto molto lontani.
  Io sono presidente di Mnesys, che è una società con 25 tra università ed enti italiani nel campo delle scienze neurologiche, c'è tutta una serie di studi in collaborazione fra ingegneri e medici, ma adesso come adesso che è basata essenzialmente su algoritmi di tipo informatico siamo ben lontani dall'alto livello, cosa che invece noi esseri umani sappiamo fare da migliaia di anni, da quando siamo scesi dagli alberi in qualche modo abbiamo cominciato a imparare in maniera casuale. Quindi non c'è quel pericolo.Pag. 17
  La sentenza, ritornando alla domanda iniziale, dipende e da che cosa c'è dentro come esempi, quindi quella è una selezione che viene fatta dagli esperti, giuridici in questo caso, che alimentano i dati, e dall'algoritmo. Però se gli esempi sono sbagliati potrebbe uscire fuori una sentenza addirittura più folle. Diciamo che l'essere umano al momento ha una certa mediazione probabilmente. Potrebbero forse aumentare i casi di giustizia giusta però nel caso in cui l'AI «liscia» il caso (fatemi dire) potrebbero uscire cose incredibilmente sbagliate qualora c'è un errore alla base.
  Quindi secondo me è molto importante sottoporre a una normativa di legge chi fa gli algoritmi e giudicarli. Anche nel campo della sicurezza del lavoro non vengono a dire: «beh, vedi un po' te chi l'ha fatto». Ci sono tutta una serie di regole a cui bisogna attenersi.
  Bisognerebbe anche che tutti gli algoritmi dell'intelligenza artificiale, a seconda della gravità dei casi, vengano regolamentati. Ma agli algoritmi, è lì che bisogna puntare, a chi in qualche modo insegna.

  PRESIDENTE. Non essendoci altre richieste di intervento, ringrazio Enrico Castanini, Amministratore unico di Liguria digitale Spa, e dichiaro conclusa l'audizione.

Audizione, in videoconferenza, di Gianluca Boleto, Head of artificial intelligence & Co-Founder di Hodlie S.r.l.

  PRESIDENTE. L'ordine del giorno reca, ai sensi dell'articolo 144, comma 1, del Regolamento, l'audizione di Gianluca Boleto, Head of artificial intelligence & Co-Founder di Hodlie S.r.l., nell'ambito dell'indagine conoscitiva sull'intelligenza artificiale: opportunità e rischi per il sistema produttivo.
  Invito chi interviene a volerlo fare sinteticamente, in modo da lasciare più spazio possibile alle domande dei commissari, riservando gli ulteriori approfondimenti ad un eventuale contributo scritto, che verrà volentieri acquisito ai lavori della Commissione, focalizzandosi sull'oggetto dell'indagine come definito dal programma.
  Do la parola a Gianluca Boleto, Head of artificial intelligence & Co-Founder di Hodlie S.r.l. ricordando che il tempo complessivo a disposizione è di circa otto minuti.

  GIANLUCA BOLETO, Head of artificial intelligence & Co-Founder di Hodlie S.r.l. Buongiorno a tutti. Innanzitutto vi ringrazio per avermi dato la possibilità di essere qui.
  Io sono Gianluca Boleto, sono Co-Founder di una start-up che ha fatto dell'intelligenza artificiale il centro del progetto. Infatti noi realizziamo una piattaforma per fare trading automatico di criptovalute tramite l'AI.
  Questo è un po' il mio background. Io lavoro con l'intelligenza artificiale da circa 8 anni, ho iniziato a studiarla in ambito universitario, prima con finalità di ricerca e pubblicazioni e attualmente, appunto, è al centro dei lavori che sto svolgendo.
  Nella relazione odierna ho voluto un po' focalizzarmi su quelle che sono le opportunità, ma soprattutto i rischi da monitorare, della diffusione dell'intelligenza artificiale a livello massivo.
  In particolare l'intelligenza artificiale è ovviamente uno strumento estremamente potente, esiste da decenni in forme più primordiali di quelle dell'AI generativa, che è balzata all'interesse pubblico solo negli ultimi anni grazie a strumenti estremamente diffusi come ChatGPT ma non solo.
  L'Europa tramite l'AI Act ha voluto normare per prima, si è mossa per prima, imponendo secondo me una distinzione importante tra quelli che sono i contenuti realizzati da AI e quelli che invece non lo sono. Questo lo fa imponendo trasparenza su quello che è il creatore dei contenuti, appunto, da AI.
  Ciò che volevo evidenziare nella relazione è il fatto che implicitamente l'AI Act muove su un tema che è quello appunto della distinzione fra contenuti generati da AI e non, che è molto delicato perché non c'è solamente la differenziazione fra contenuti generati da sistemi intelligenti e l'uomo ma, a mio avviso, c'è anche la distinzione fra quelli che sono i sistemi Pag. 18considerati intelligenti, quindi non avanzati forse come l'AI generativa, ma che a loro volta forse non sempre in maniera evidente sono comunque diversi dai sistemi non intelligenti che però effettuano un lavoro estremamente preciso per un determinato scopo.
  In tal senso il rischio di una regolamentazione poco pratica è quello di andare a normare su tutta una serie di sistemi che in realtà non sono legati all'intelligenza artificiale ma che ci assomigliano molto, soprattutto visti da un punto di vista di un osservatore esterno, oppure quella di non normare a sufficienza su tutto quello che è lo spettro molto ampio dei sistemi di intelligenza artificiale.
  Secondo questa logica, a mio avviso bisogna procedere lavorando sui dati, in quanto sono i dati stessi, quelli utilizzati durante i processi di addestramento, che determinano la natura dello strumento che poi viene creato tramite l'intelligenza artificiale.
  Tra l'altro i dati stessi, per tutte le aziende che operano nel settore dell'intelligenza artificiale in maniera legale, sono facilmente dimostrabili: nel senso che si può dimostrare quella che è l'origine dei dati che vengono utilizzati senza però mostrarli qualitativamente, che potrebbe essere un problema, soprattutto scomodando la tutela della privacy.
  In tal senso secondo me questi sono sufficienti per dimostrare la natura dello strumento creato, poiché lo stato dell'arte dei sistemi di intelligenza artificiale ci dice che in realtà siamo ben distanti da un'intelligenza senziente che sia in grado di generare output propri o seguire i propri istinti o generare addirittura emozioni. Di fatto anche gli strumenti più avanzati non possono generare output che non siano circoscritti al proprio campo semantico del proprio processo di addestramento.
  Pertanto in tal senso secondo me il rischio di uno sviluppo estremamente veloce si concretizza poi nel problema della conseguente velocissima diffusione di questa tecnologia, che spesso viene utilizzata inconsapevolmente. Quando ciò accade questo può portare a problematiche per coloro che per primi la utilizzano.
  In tal senso il campo dove ho deciso insieme ai miei soci di fare la start-up è evidente, ne è una prova. Gli strumenti finanziari sono strumenti che sono estremamente potenti ed estremamente validi, ma che poi si concretizzano nel 75 per cento della popolazione che lo utilizza con perdite, poiché non è consapevole a sufficienza di come utilizzarli. In tal senso il rischio che si corre con l'AI, in particolare con l'AI generativa che viene diffusa massivamente, secondo me è lo stesso.
  Pertanto a mio modo di vedere non si deve andare verso una regolamentazione che vada a limitare lo sviluppo di questa tecnologia, ma anzi questa deve incentivare l'utilizzo di questa tecnologia specialmente nelle piccole e medie imprese a livello italiano, poiché bisogna stare al passo con altre aziende, soprattutto extra continentali che la utilizzano senza preoccuparsi della regolamentazione. Al contrario, se si vuole andare a creare una regolamentazione, bisogna intervenire monitorando quello che è l'utilizzo della stessa, soprattutto su larga scala, facendo in modo che chiunque la voglia utilizzare ne sia consapevole, per utilizzarla nella maniera corretta, ma al tempo stesso se ne senta responsabile in prima persona nel caso la voglia utilizzare a scopo lavorativo, educativo, sociale e in generale a livello pubblico.
  Questa è un po' la sintesi della relazione che ho svolto.

  PRESIDENTE. Non essendoci richieste di intervento, ringrazio Gianluca Boleto, Head of artificial intelligence & Co-Founder di Hodlie S.r.l. Autorizzo la pubblicazione in allegato al resoconto stenografico della seduta odierna della documentazione consegnata dal dott. Gianluca Boleto (vedi allegato 3) e dichiaro conclusa l'audizione.

Audizione, in videoconferenza, di Luca Oneto, Associato di informatica presso Università degli Studi di Genova.

  PRESIDENTE. L'ordine del giorno reca, ai sensi dell'articolo 144, comma 1, del Pag. 19Regolamento, l'audizione di Luca Oneto, Associato di informatica presso Università degli Studi di Genova, nell'ambito dell'indagine conoscitiva sull'intelligenza artificiale: opportunità e rischi per il sistema produttivo.
  Invito chi interviene a volerlo fare sinteticamente, in modo da lasciare più spazio possibile alle domande dei commissari, riservando gli ulteriori approfondimenti ad un eventuale contributo scritto, che verrà volentieri acquisito ai lavori della Commissione, focalizzandosi sull'oggetto dell'indagine come definito dal programma.
  Do la parola a Luca Oneto, Associato di informatica presso Università degli Studi di Genova ricordando che il tempo complessivo a disposizione è di circa otto minuti.

  LUCA ONETO, Associato di informatica presso Università degli Studi di Genova. Buongiorno.
  Sono Luca Oneto, professore di ingegneria informatica all'Università di Genova. Condividerò alcune slide sullo schermo che sintetizzano il mio intervento il cui titolo è L'intelligenza artificiale, luci e ombre di una scorciatoia.
  L'intelligenza artificiale nasce negli anni Cinquanta e non sempre ha funzionato, nel senso che i primi tentativi di costruire l'intelligenza artificiale si sono conclusi con insuccessi che hanno dato origine ai cosiddetti «inverni dell'intelligenza artificiale».
  Dagli anni Ottanta e Novanta del secolo scorso, invece, l'intelligenza artificiale ha iniziato a funzionare come ci si aspetta, dando origine ai casi di successo che ogni giorno sono sotto gli occhi di tutti.
  L'idea degli inizi dell'intelligenza artificiale è dovuta a Searle, un filosofo che cercò di teorizzare come replicare l'intelligenza umana connettendolo al concetto di comprensione, ossia di capire che relazione c'è tra le macchine, la coscienza e l'intelligenza.
  Più tardi Alan Turing capì che l'intelligenza umana per gran parte non è dovuta a questo concetto di coscienza ma è collegata al concerto di replicazione. Replicare è saper rifare o risolvere un problema in base allo storico.
  I due concetti sono molto diversi, nel senso che per capire occorre capire le cause, quindi se c'è un maggiore consumo di gelato, c'è un maggior numero di problemi legati ad affogamenti, questo è dovuto al fatto che le giornate sono più belle, c'è più caldo e quindi ci sono più persone che vanno al mare o più persone che mangiano il gelato. Se invece si cerca solo di correlare, ossia di replicare un comportamento, basta semplicemente avere dei dati a disposizione e si può usarli, per esempio, per approssimare il consumo di gelato il numero di affogamenti o viceversa. Ossia, non occorre sempre capire per riuscire a fare previsione.
  Ed è per questo che l'intelligenza artificiale moderna ha iniziato a funzionare grazie a questo concetto di scorciatoia. Ossia, capire come risolvere un problema è difficile e non sempre è necessario per risolvere problemi semplici. Per risolvere problemi semplici a volte basta grande mole di dati, grande potenza di calcolo, tanta memoria a basso costo, accoppiata a investimenti pubblici e a capitale umano, per costruire macchine che siano in grado di replicare comportamenti basandosi sui dati.
  Ovviamente questa è una scorciatoia di cui molti ricercatori hanno parlato. Questi hanno fatto capire la grande importanza dei dati e hanno fatto anche generare il regolamento europeo del Data Act, che ha permesso in qualche modo di mettere sullo stesso piano tutte quelle aziende che usano i dati per produrre valore.
  Grazie a questa scorciatoia siamo riusciti a raggiungere dei grandi successi. Per esempio siamo riusciti a costruire una macchina con capacità sovrumane, nel senso, per esempio, che è riuscito a battere il campione mondiale di Go nel gioco del Go (che è un gioco amatissimo in Cina), dove però alla fine l'idea che c'è dietro questa intelligenza artificiale è capire qual è la successiva mossa da fare in base a milioni di mosse che sono state memorizzate in base agli storici delle partite di Go.
  Un altro caso di studio moderno su cui si vede il successo di questa scorciatoia è ChatGPT, dove al proprio interno non ha nient'altro che un semplice algoritmo che Pag. 20cerca di replicare l'attività umana e dove il tasto principale è quello di predire la parola successiva in una frase. Visto che abbiamo milioni e milioni di testi digitalizzati scritti, noi siamo in grado di prevedere la parola successiva in base alle parole precedenti in una frase.
  L'impatto sul sistema produttivo attuale nei prossimi anni sarà molto grande, nel senso che si stimano degli aumenti sia in termini di produzione sia in termini di capacità produttiva che di PIL intorno a numeri a doppia cifra in tutto il mondo, concentrati soprattutto negli Stati più evoluti, quindi nord Europa, Nord America e Cina. Ma anche i Paesi meno sviluppati avranno dei benefici che, per tutti, si attestano intorno al 5/10 per cento.
  Ovviamente però la scorciatoia dell'intelligenza artificiale moderna ha un prezzo in quanto, essendo basata sui dati, i dati riflettono la nostra ignoranza nel capire un fenomeno, l'incapacità di misurare parti importanti di un fenomeno e i pregiudizi storici, nel senso che i concetti per esempio etici sono legati, in una società, al tempo, quindi ciò che poteva essere etico nei dati storici non è più etico al giorno d'oggi.
  Il problema della tecnica è che cerca semplicemente di ottimizzare una funzione obiettivo, nel caso di ChatGPT e del Go semplicemente prevedere la mossa migliore successiva, non pensando a quali sono i risvolti di una determinata azione. Quindi la tecnica tende solo a ottimizzare la metrica, ossia a funzionare.
  Quindi quando abbiamo iniziato a utilizzare l'AI nel mondo moderno ci siamo accorti che queste AI hanno dei pregiudizi. Per esempio alcune persone in America sono state messe in galera in modo improprio a causa di riconoscitori facciali, oppure si è scoperto che ChatGPT è vulnerabile e basta introdurre una serie di caratteri, studiati in maniera precisa, per far rispondere a domande pericolose per la società, per esempio in questo caso come costruire una bomba.
  Inoltre ci sono gli aspetti d'impatto sul sistema produttivo, nel senso che si stima che in molte categorie ci sarà una forte diminuzione dei posti di lavoro dovuta alla forte automazione creata da questi nuovi strumenti di intelligenza artificiale.
  Per questo motivo occorre costruire dei metodi che permettano di allineare l'intelligenza artificiale ai bisogni dell'uomo. Ossia occorre costruire un'intelligenza artificiale che non solo funzioni, ma che applichi i criteri di sostenibilità, di robustezza, di spiegabilità, di non discriminazione, di protezione della privacy, di competenza culturale e così via, ossia tutti valori che non sono propri della macchina o non sono metriche proprie della macchina ma sono metriche proprie della società e quindi dell'uomo.
  Ma come si fa a fare questo, come si fa a rendere queste macchine più allineate e come si fa a controllare?
  Non è banale. Nel senso che sia dal punto di vista della ricerca che dal punto di vista dei decisori politici esistono diverse proposte. Ad esempio nel AI Act si sta studiando se creare delle checklist, che sono facili da realizzare per chi sviluppa un prodotto e facili da verificare, perché possono essere fatte in automatico. Si sta pensando anche a relazioni tecniche, che ovviamente sono facili da realizzare perché chi progetta un sistema già di per sé produce queste relazioni. Però sono difficili da verificare, perché richiede esperti molto specifici nel settore e metriche oggettive condivise.
  Si possono fare dei controlli campione, ma questo è difficile. Nel senso che quando arriva qualcuno a verificare se il mio prodotto è conforme rispetto a queste metriche che tipo di documentazione devo produrre, come faccio a dimostrare che io ho progettato il mio sistema nella maniera corretta? Ed è difficile anche da applicare su larga scala, perché richiede tanti esperti e sempre metriche oggettive condivise.
  Si sta pensando anche a strumenti di controllo automatico, che sono però di difficile realizzazione. Perché come faccio a interfacciarmi con un sistema proprietario, per esempio ChatGPT, in modo da poter controllare il suo funzionamento? Ci sono delle challenge sia di tipo tecnico che di tipo teorico che di tipo legale. E sono anche poi difficili da verificare, perché anche in Pag. 21questo caso occorrono delle giurie di esperti in grado di definire strumenti automatici e metriche automatiche che permettano in qualche modo di rendere la procedura sempre aggiornata, quindi non facilmente aggirabile, ma d'altra parte con delle metriche oggettive che possano essere anche in qualche modo verificate da chi sviluppa il prodotto.
  Il problema principale poi rimane l'accountability. Ossia, di chi rimane la responsabilità di un malfunzionamento, di un comportamento non voluto delle macchine, quando io sono riuscito anche nella migliore delle ipotesi a passare tutti i controlli richiesti? Rimane l'accountability sempre a chi ha progettato il sistema o va all'organo di vigilanza? E in quale parte rimane all'uno oppure all'altro?
  Queste sono delle valutazioni che richiedono in qualche modo delle considerazioni di tipo politico del decisore, che faccia sì di far capire fino a quanto si può spingere il controllo per essere sicuri di non aver messo in circolazione strumenti pericolosi e quanto questi controlli però hanno dei limiti, e quindi ci potrebbero essere dei comportamenti non voluti cui anche il progettista non avrebbe potuto porre rimedio in fase di progettazione.
  Vi ringrazio per l'ascolto.

  PRESIDENTE. Non essendoci richieste di intervento, ringrazio Luca Oneto, Associato di informatica presso Università degli Studi di Genova. Autorizzo la pubblicazione in allegato al resoconto stenografico della seduta odierna della documentazione consegnata dal professor Luca Oneto (vedi allegato 4) e dichiaro conclusa l'audizione.

Audizione, in videoconferenza, di Giuliano Lancioni, Ordinario di lingua e letteratura araba presso l'Università degli studi di Roma Tre e Coordinatore del progetto di ricerca PRIN «IsFinTech».

  PRESIDENTE. L'ordine del giorno reca, ai sensi dell'articolo 144, comma 1, del Regolamento, l'audizione di Giuliano Lancioni, Ordinario di lingua e letteratura araba presso l'Università degli studi di Roma Tre e Coordinatore del progetto di ricerca PRIN «IsFinTech» nell'ambito dell'indagine conoscitiva sull'intelligenza artificiale: opportunità e rischi per il sistema produttivo.
  Invito chi interviene a volerlo fare sinteticamente, in modo da lasciare più spazio possibile alle domande dei commissari, riservando gli ulteriori approfondimenti ad un eventuale contributo scritto, che verrà volentieri acquisito ai lavori della Commissione, focalizzandosi sull'oggetto dell'indagine come definito dal programma.
  Do la parola a Giuliano Lancioni, Ordinario di lingua e letteratura araba presso l'Università degli studi di Roma Tre e Coordinatore del progetto di ricerca PRIN «IsFinTech» ricordando che il tempo complessivo a disposizione è di circa otto minuti.

  GIULIANO LANCIONI, Ordinario di lingua e letteratura araba presso l'Università degli studi di Roma Tre e Coordinatore del progetto di ricerca PRIN «IsFinTech». Ringrazio il presidente e ringrazio la Commissione per l'invito.
  Parlerò brevemente di questo progetto di ricerca, ma mi concentrerò soprattutto sui temi che intende affrontare e sul tipo di soluzioni che vorrebbe offrire. Per maggiori dettagli anche tecnici c'è una relazione che ho allegato che potrete poi leggere con calma.
  Il progetto IsFinTech è un progetto di ricerca di interesse nazionale, finanziato dal Ministero dell'università e della ricerca, che sta appena partendo, in collaborazione con le colleghe Emanuela Giolfo dell'Università IULM di Milano e Francesca Magli dell'Università di Milano Bicocca.
  L'unità di ricerca presso IULM si occupa soprattutto dell'analisi linguistica dei testi, l'unità presso Milano Bicocca si concentra sugli aspetti finanziari di FinTech e RegTech e di Compliance, invece l'unità presso l'Università Roma Tre che dirigo si occupa principalmente di linguistica computazionale, della gestione delle ontologie, che sono gli aspetti che mi riguardano più direttamente.
  Il progetto IsFinTech si dedica alla cosiddetta finanza islamica.Pag. 22
  Spiego brevemente di cosa si tratta. Sostanzialmente è un approccio alle pratiche finanziarie e bancarie, che si ispira al diritto musulmano. Quindi è essenzialmente una versione di attività di investimenti o attività bancarie che desidera essere compliante, come si dice oggi, non solo ed esclusivamente con le norme previste dai vari codici e dalle varie regolamentazioni ma anche con i princìpi del diritto musulmano.
  In cosa questo pone problemi alle normali pratiche finanziarie e bancarie?
  Ci sono ovviamente degli aspetti intuitivi e ovvi che derivano da norme etiche, chiaramente l'Islam proibisce il consumo di vino o altri alcolici, quindi non è possibile investire in questo, oppure considera impura la carne di maiale e quindi non si può per ipotesi investire in un salumificio. Ma al di là di questo ci sono gli aspetti più profondi che comportano delle differenze molto più sostanziali.
  In particolare il diritto musulmano ha una ostilità di fondo all'idea di prestito a interesse, in generale all'idea di interesse, cioè l'idea è che il denaro non possa produrre altro denaro.
  Questo, come sappiamo, è un tema che è stato molto discusso anche nelle tradizioni cristiana ed ebraica, ma si è arrivati in qualche modo a un compromesso, resta un interesse concesso ma sempre con determinate limitazioni, esiste il concetto di usura, quindi quasi nessun sistema finanziario ammette prestiti a qualsiasi interesse o senza limitazioni, ma in teoria il diritto musulmano lo esclude proprio. Questo vuol dire che una banca che rispetti i princìpi del diritto musulmano almeno in teoria non può prestare a interesse, non può corrispondere interessi, deve trovare delle soluzioni alternative.
  Le soluzioni possono essere varie, di solito si creano delle società miste in cui la banca partecipa in qualche modo al rischio d'impresa; oppure, nel caso poniamo di mutui, non viene erogato un mutuo con interessi ma c'è un processo per cui la banca acquista l'immobile, lo rivende facendolo riscattare al mutuatario, lo fa a un prezzo superiore ma le rate non comportano la presenza di interessi.
  Si tratta ovviamente spesso di pratiche formali, ma in generale il diritto è formale.
  Nel mondo musulmano attualmente la finanza islamica è prevalente, ma si sta diffondendo sempre più l'idea di avere un sistema conforme altrove. Il sistema finanziario conforme al diritto musulmano è nato negli anni Sessanta, attualmente in alcuni Paesi, in particolare i Paesi del Golfo, si valuta che circa il 20 per cento del sistema finanziario sia svolto attraverso pratiche islamicamente corrette per così dire.
  Questo è un ambito in diffusione crescente nei Paesi del Golfo e in alcuni Paesi musulmani non arabi dell'Asia centrale, in particolare Pakistan, Malesia, Indonesia. Ma anche, e questo è l'aspetto che interessa di più, anche in Paesi occidentali dove esistono importanti comunità islamiche, perché questa domanda è in crescita. Naturalmente per vari motivi è più facile la diffusione di questo modello presso Paesi di common law che sono più aperti alla possibilità di contrattazione privata, anche di norme, quindi dal Regno Unito al Sudafrica sono molto più diffuse. Ma si valuta che nel mondo ormai circa 4 trilioni di dollari siano movimentati da pratiche di finanza islamica.
  Cosa vuole fare il nostro progetto? Sostanzialmente cerca di gestire queste pratiche che in Italia al momento sono quasi assenti, ma ove ovviamente esiste una domanda, domanda che per ora non è soddisfatta ma che sarà presumibilmente crescente dato il numero crescente di residenti in Italia di religione musulmana, di origine da Paesi musulmani o come si dice oggi islamica, cioè Paesi in cui l'Islam ha un ruolo dominante.
  La nostra idea è di sviluppare un prototipo di intelligenza artificiale che gestisca tutto il processo che va dalla richiesta, che viene posta dal cliente, di cui vengono analizzate linguisticamente le sue esigenze in arabo, in inglese, in italiano e tradotte in una rappresentazione semantica legata a degli standard deontologici che vengono abitualmente utilizzati per la finanza.Pag. 23
  A questo si sovrappone un secondo livello. Quindi c'è un livello di rappresentazione ontologica e di implementazione delle regole, quello che si definisce abitualmente RegTech, che è quello sostanzialmente abituale, quindi si propone al cliente quello che l'attuale prassi finanziaria proporrebbe.
  C'è una valutazione attraverso un sistema assiomatico che esprime una risposta, immaginiamo con una simbologia a semaforo, che è molto appropriata perché il diritto musulmano non è bianco e nero, a un estremo c'è l'assolutamente obbligatorio, all'altro l'assolutamente proibito, nel mezzo ci sono molte sfumature che si possono definire riprovevole, non lodevole, neutro e così via. Quindi effettivamente si può dare una risposta se l'operazione finanziaria prevista è totalmente corretta, parzialmente corretta o da escludere, e si propongono delle alternative attraverso un sistema di regole, secondo una tradizione già esistente da secoli nel mondo musulmano, che raggiungono più o meno lo stesso risultato.
  Quali possono essere i benefici di un approccio di questo tipo?
  Nella nostra visione da un lato si aprono delle prospettive nuove per il sistema bancario e finanziario, che attualmente non riesce a coinvolgere o coinvolge parzialmente una parte della popolazione che sta diventando sempre più presente e auspicabilmente integrata nel nostro sistema sociale. D'altra parte c'è un problema inverso di inclusione: uno dei punti dell'Agenda 2030, per esempio, riguarda effettivamente sconfiggere la povertà e l'idea di lavoro dignitoso (rispettivamente, obiettivi 1 e 8 degli SDG, sustainable development goals), e dà molta importanza al recupero dei cosiddetti unbanked, persone che al momento sono ai margini del sistema creditizio e finanziario.
  Sicuramente offrire, e farlo in modo che sia accessibile, anche a un sistema bancario che ovviamente non ha familiarità con questo tipo di approcci, un sistema integrato che possa analizzare i bisogni e dare soluzioni, a nostro avviso può essere uno strumento interessante e speriamo utile al sistema.
  Grazie per l'attenzione.

  PRESIDENTE. Non essendoci richieste di intervento, ringrazio Giuliano Lancioni, Ordinario di lingua e letteratura araba presso l'Università degli studi di Roma Tre e Coordinatore del progetto di ricerca PRIN «IsFinTech». Autorizzo la pubblicazione in allegato al resoconto stenografico della seduta odierna della documentazione consegnata dal professor Giuliano Lancioni (vedi allegato 5) e dichiaro conclusa l'audizione.
  Sospendo la seduta per cinque minuti.

  La seduta, sospesa alle 11.55, è ripresa alle 12.

Audizione, in videoconferenza, di Paolo Ferragina, Ordinario di algoritmi all'Università di Pisa.

  PRESIDENTE. L'ordine del giorno reca, ai sensi dell'articolo 144, comma 1, del Regolamento, l'audizione di Paolo Ferragina, Ordinario di algoritmi all'Università di Pisa nell'ambito dell'indagine conoscitiva sull'intelligenza artificiale: opportunità e rischi per il sistema produttivo.
  Invito chi interviene a volerlo fare sinteticamente, in modo da lasciare più spazio possibile alle domande dei commissari, riservando gli ulteriori approfondimenti ad un eventuale contributo scritto, che verrà volentieri acquisito ai lavori della Commissione, focalizzandosi sull'oggetto dell'indagine come definito dal programma.
  Do la parola a di Paolo Ferragina, Ordinario di algoritmi all'Università di Pisa ricordando che il tempo complessivo a disposizione è di circa otto minuti.

  PAOLO FERRAGINA, Ordinario di ingegneria dell'informazione presso l'Università degli studi di Pisa. Buongiorno. Il cognome è Ferràgina, con la pronuncia sdrucciola, è complicato pronunciarlo.

  PRESIDENTE. Scusi, dottor Ferràgina.

  PAOLO FERRAGINA, Ordinario di ingegneria dell'informazione presso l'Università degli studi di Pisa. No, ma figuriamoci. Pag. 24Proietto le slide, ho preparato delle slide per la mia presentazione.
  Io mi concentrerò su questi due punti che erano presenti nel documento che ho ricevuto, quelle che sono le opportunità, le criticità e i rischi di cui si parla tantissimo oggi, con possibilmente una spiegazione un po' più dettagliata di alcuni aspetti, e poi le modalità in cui l'intelligenza artificiale possa diventare strategica per il Sistema Paese.
  Ringrazio tutti, il presidente e la Commissione, per l'invito. Vado velocemente, visto che il tempo è molto breve.
  Ormai siamo passati da una società digitale a una società algoritmica. Con questo termine fondamentalmente si intende il fatto che le macchine (l'ho messo tra virgolette) di calcolo non sono più semplicemente degli elementi passivi della nostra vita quanto piuttosto prendono delle decisioni e in maniera ancora più pesante riescono a influenzare sia il nostro modo di comprendere il mondo che anche le nostre personalità, come in fondo il film Her (o Lei) aveva dimostrato.
  Per arrivare alla situazione in cui ci troviamo oggi, ed è stata un'evoluzione estremamente prorompente e dirompente, ci sono stati tre grandi sviluppi.
  Il primo ha riguardato i big data, più semplicemente i dati che vengono catturati in maniera digitale. Il secondo riguarda l'hardware, così possiamo dire, cioè il super calcolo, le macchine. Il terzo elemento di questa rivoluzione sono sicuramente gli algoritmi e l'intelligenza artificiale, che sono due cose diverse tra di loro. Non ho il tempo di entrare in una valutazione e in una descrizione del perché, oggi vengono molto spesso confusi ma c'è una differenza sostanziale: gli algoritmi restituiscono sempre delle risposte corrette; l'intelligenza artificiale no. In America si dice che è un heuristic programming, cioè una programmazione euristica che alcune volte può rispondere correttamente e altre volte può sbagliare. Da ora in poi li definiremo in generale il «codice».
  Qual è il punto fondamentale? Fondamentalmente la domanda che noi ci dobbiamo porre non è tanto cosa accadrà nel prossimo futuro, nessuno ha la sfera di cristallo, viste anche le evoluzioni sorprendenti degli ultimi anni, ma piuttosto cosa noi dovremmo fare accadere. Chiaramente cercherò di argomentare nei prossimi minuti il percorso che secondo me le istituzioni dovrebbero intraprendere affinché il nostro ruolo sia attivo e non passivo all'interno di questa rivoluzione.
  Innanzitutto una riflessione sul codice e sui dati.
  I criteri su cui si basano tutte queste decisioni che vengono generate dai sistemi di intelligenza artificiale hanno un vulnus. Il vulnus di cui si parla anche spesso sui quotidiani è il fatto che le decisioni prese da queste macchine sono difficilmente ricostruibili. Alcune volte si usa il termine indecifrabili. Questo vale non soltanto per la gente comune ma anche per noi stessi tecnici del sistema.
  Questo solleva due aspetti da discutere, che sono la trasparenza e la spiegabilità dei risultati.
  Un altro elemento è che nel momento in cui si vuole affrontare questi problemi di trasparenza e spiegabilità spesso a noi informatici viene richiesto di seguire un approccio etico. Si parla sempre più di etica dell'informatica, di etica dell'intelligenza artificiale, quindi con quanto segue cercherò di darvi un esempio di come questo inserimento dell'etica nel processo di progettazione è estremamente complesso e sicuramente non è un approccio tecnico quanto interdisciplinare.
  L'ultimo punto è la cultura del dato, un elemento fondamentale.
  Si è parlato negli anni scorsi nel nostro Paese, ma in realtà in tutto il mondo, di cultura digitale, secondo me bisognerebbe parlare più di cultura dei dati. Perché la cultura dei dati non è soltanto un problema dell'informatico o del tecnico, quanto è qualcosa che influenza tutti noi quando generiamo delle informazioni, le carichiamo nei sistemi e quindi svolgiamo il nostro lavoro quotidiano.
  Per entrare nell'ambito della spiegabilità e dell'etica uso come esempio il caso Loomis, che fu famoso qualche anno fa perché era stato utilizzato un sistema di intelligenza artificiale chiamato CompassPag. 25negli Stati Uniti, per stabilire se questa persona doveva essere condannata oppure no e anche per stabilire quanto doveva essere la dimensione della pena. Chiaramente non è questo il punto che mi interessa, ma volevo esprimere e descrivere il concetto di etica nella progettazione, ipersemplificando il problema.
  Immaginiamo di voler progettare un sistema che stabilisca se una persona è un criminale o è un cittadino e immaginiamo di volerlo decidere soltanto sulla base dell'età e del suo grado di istruzione. Ovviamente è un gioco ma più significativo di quanto possa apparire a prima vista.
  Noi stiamo catturando come si fa solitamente nell'ambito dell'intelligenza artificiale degli esempi, quindi andiamo nel tribunale di Pisa, prendiamo un po' di cause legate a persone che sono state condannate e per ciascuno di questi (chiamiamoli così) criminali, raccogliamo l'età e il grado di istruzione e lo posizioniamo sul piano (vedi allegato 6, slide 5). Allo stesso modo andiamo a prendere un insieme di cittadini chiamiamoli innocenti e questi cittadini li posizioniamo anche su questo piano.
  Questo è quello che fa un sistema di intelligenza artificiale, raccoglie esempi positivi e negativi (nel gergo tecnico) e questi esempi vengono dislocati in uno spazio, che qui è bidimensionale per semplicità. Poi si chiede al sistema di intelligenza artificiale di apprendere.
  Nel caso specifico l'apprendimento è una retta che separa (diciamo così) i buoni dai cattivi.
  Ora, qual è la retta, è questa, quest'altra oppure quest'altra ancora? Come potete capire ci sono infinite scelte che il sistema può fare e rispetto a questi esempi la scelta è perfetta, riesce sempre a distinguere gli innocenti dai criminali.
  Quindi se un'altra persona arriva, come accade in Compass, per esempio questo signore in verde, e si chiede se è criminale o innocente al sistema di intelligenza artificiale ragionevolmente il sistema risponderà che è un criminale, perché si colloca in questa zona e quindi sopra la retta. Se andiamo sulla parte in basso tra le persone innocenti il sistema dirà che è una persona innocente. Ma capite bene che se si colloca in un'altra posizione la scelta della retta che fa il sistema di intelligenza artificiale sarà dirimente, perché una piccola variazione del coefficiente angolare della retta potrebbe dire che questa persona è colpevole o innocente (vedi allegato 6, slide 6).
  Questa è la diatriba che ha interessato la comunità dei giuristi e anche degli informatici nel corso degli anni scorsi, quando si discuteva di Compass.
  Qual è il punto fondamentale etico? Il punto è che se il nostro dataset è un po' più complesso, quindi noi prendiamo altri due esempi di due criminali che si collocano in questa posizione e che quindi non ci permettono più di tirare una retta per distinguere i buoni dai cattivi, allora qui la cosa si fa più complicata (vedi allegato 6, slide 7). Perché l'informatico tirerebbe questa retta, questa è la retta blu (l'ho chiamata la matematica) ed è la retta che fa due errori, perché sbaglia su un innocente e su un colpevole nella zona gialla, sbagliando nel senso opposto in entrambi i casi, e fa quindi due errori e la macchina sceglierebbe questa perché è una soluzione bilanciata.
  Ma esiste una retta garantista, la retta garantista è quella che tracciata in questo modo classifica correttamente tutti i cittadini innocenti e sbaglia su due criminali. Anche qui gli errori sono due ma hanno un senso completamente diverso.
  Esiste anche la retta giustizialista, che è invece la retta che si colloca in basso e che sbaglia su questi cittadini innocenti.
  Dove voglio arrivare? Che dal punto di vista puramente informatico e matematico di una retta si tratta e quindi un coefficiente angolare e un'intercetta, ma dal punto di vista sociale, etico e quindi di impatto politico la differenza è enorme.
  Quindi il problema di progettare questi sistemi di intelligenza artificiale non può essere lasciato solamente agli informatici, deve essere necessariamente un approccio multidisciplinare perché investe le nostre vite. Non è più un sistema che calcola gli interessi in banca, gli algoritmi ormai fanno cose che impattano come ho detto all'inizio sulla nostra vita.Pag. 26
  Come potete vedere, dal punto di vista puramente informatico di una retta si tratta, ma questa retta ha una differenza enorme sulla società e sulle vite delle persone.
  La situazione ovviamente non è così semplice in generale. Quando noi raccogliamo esempi per costruire questi sistemi di intelligenza artificiale due dimensioni sono poche, infatti il sistema Compass americano ne usa 140. Per cui vi potete immaginare che per distinguere i buoni dai cattivi non usa rette, usa superfici complicate (vedi allegato 6, slide 8).
  Ci sono degli aspetti da considerare, la prima è la robustezza. Se arriva una persona che si colloca su una di queste superfici, che sono in spazi giganteschi che nessuno si può immaginare, capire se la scelta è suffragata da altri esempi o no è veramente complesso.
  L'altra è la rappresentatività, tanti più esempi abbiamo quanto più questi esempi possono indurci ad avere delle scelte consapevoli e ragionate. Ma avere una rappresentatività diffusa su uno spazio a più dimensioni è un altro problema che bisogna affrontare e su cui la scienza si sta interrogando, cioè quali metodi adottare per garantirla.
  La spiegabilità. Capite bene che sulla rete era facile, sopra o sotto, ma in uno spazio multidimensionale spiegare il perché un sistema di intelligenza artificiale dice che una persona è innocente o una persona è criminale diventa difficile da dire agli uomini.
  Abbiamo fatto dei progressi enormi nel nostro contesto in ambito scientifico per descrivere alcune scelte, ma ancora tanto deve essere fatto e questo è uno spazio importantissimo. Nel momento in cui un sistema, non è tanto un gioco come quello che vi sto proponendo, ma un sistema che impatta sulla giurisprudenza, impatta sulle scelte giuridiche o ancor di più su quelle sanitarie, è evidente che non ci basta sapere se un punto è in una zona a 140 dimensioni ma vorremmo capire il perché un sistema ha fatto una classificazione. Questo ovviamente vuol dire allontanarsi dai sistemi oggi in uso per fare sistemi più sofisticati e, come dicevo, spiegabili.
  Infine la multidisciplinarità di cui ho parlato prima.
  Non è più possibile immaginare che questi sistemi siano in mano soltanto agli informatici, io sono un algoritmista, quindi lo dico dal mio punto di vista. È necessario quando si affrontano questi temi, che sono poi in realtà temi sociali perché questi strumenti sono diffusi in ambito sociale e sanitario e anche personale, che tutti gli aspetti di progettazione siano condivisi.
  L'esempio di prima che ho fatto serviva proprio a semplificare ma dare il punto della situazione di come un oggetto matematico, quale una retta, in realtà può influenzare le nostre vite.
  Questo ovviamente passa dall'esempio che aveva detto, cioè la cultura del dato. Raccogliere dati diventa ormai fondamentale, i dati sono l'humus di questi sistemi, e raccogliere dati che non siano rappresentativi può portare questi sistemi, in maniera anche non maliziosa, a essere totalmente errati nelle decisioni che commettono.
  Quindi questa idea della cultura del dato deve essere diffusa a tutti i livelli, non soltanto a livello degli informatici. Pensiamo a qualunque dipendente pubblico che raccoglie dati per la classificazione delle persone, per il suo profilo, tanto più questi dati sono completi e sono costruiti in maniera adeguata tanto più i sistemi di intelligenza artificiale potranno essere equi, spiegabili e potranno avere un ritorno efficace sulle nostre vite.
  Affronto velocissimamente gli altri due punti.
  Il supercalcolo. Ormai, voi l'avrete letto sicuramente su tutti i quotidiani visto che sta invadendo le nostre news giornalmente, il sistema per esempio di ChatGPT ha avuto un salto significativo nella sua qualità. Il salto si è ottenuto quando da milioni di parametri siamo passati a un trilione, sta per 100 mila miliardi di parametri.
  Queste dimensioni impattano sulla dimensione dei sistemi che usiamo, l'immagine di un data center di Google dove ci sono centinaia di migliaia di macchine che analizzano e processano grandi dati. Ad Pag. 27esempio, per costruire ChatGPT si dice che il costo sia stato di 100 milioni.
  La dimensione di questi grandi calcolatori, che in realtà sono una moltitudine di calcolatori, può essere una barriera all'ingresso, se uno non ha a disposizione queste potenze di calcolo è fuori gioco.
  Quello che è stato fatto nel PNRR è stata una cosa enorme, significativa e importantissima, grazie anche all'acquisto della macchina Leonardo. Ci sta sicuramente aiutando nel metterci al pari di tutte le altre nazioni del mondo, ma non si può limitare solamente al PNRR.
  Il PNRR è molto limitato nel tempo e i costi, come capite bene e come ho cercato di spiegare velocemente, non sono soltanto costi di acquisto ma sono costi di mantenimento della macchina, di funzionamento della macchina e il suo aggiornamento. Solo avendo a disposizione sistemi così potenti noi potremo anche fare test dei nostri algoritmi e dei nostri sistemi, in Italia intendo.
  L'altra è sulle PMI. Le aziende devono evitare un errore che io vedo abbastanza diffuso, che è quello di immaginare che il sapere usare sia equivalente al saper fare. Non è che se io so usare un cellulare sono un ingegnere elettronico o sono un ingegnere informatico. Assolutamente no, sono un utente.
  Quello che sta accadendo è che grandi compagnie multinazionali mettono a disposizione delle librerie di facilissimo utilizzo, tutti le usano e tutti pensano di essere degli esperti di intelligenza artificiale. Ma in realtà le usano a scatola nera, non sanno nemmeno cosa accade al loro interno, quindi rischieremmo di diventare schiavi di queste tecnologie e totalmente nelle loro mani, perché in fondo non sappiamo cosa accade al loro interno.
  Arrivo all'ultima parte che è quella appunto degli algoritmi dell'intelligenza artificiale.
  C'è inevitabilmente una corsa alla conoscenza e alla progettazione, perché tanto più noi come italiani saremo in grado di conoscere e progettare questi oggetti quanto più li potremo controllare, quanto più li potremo usare consapevolmente, anche oggetti che ci vengono dati dall'esterno.
  L'open source è importante sicuramente, quindi quello che sta accadendo per esempio con AdminFaces è un grandissimo risultato, perché noi abbiamo modelli che possiamo analizzare e che possiamo guardare. Ma tenete conto che ognuno di questi modelli è complicatissimo, è come se io ricevessi una biblioteca e immaginassi di essere sicuramente a conoscenza di tutti i libri, se non li leggo tutti sicuramente non avrò una conoscenza completa.
  Quindi comunque dobbiamo imparare a capire cosa c'è dentro questi modelli, quindi l'open source aiuta ma non è una panacea.
  Io posso dire con un po' di orgoglio che la ricerca italiana è sicuramente il top a livello internazionale, ci viene riconosciuto, basti vedere la nostra collocazione scientifica nei ranking, siamo sicuramente nelle Top 10 nazioni al mondo, molto vicini alla 5ª posizione, ma non siamo competitivi nel trattenere i nostri studenti migliori. Io parlo di Pisa perché ho esperienza di Pisa, noi formiamo ragazzi e poi quasi tutti i nostri migliori studenti vanno all'estero in queste big companies. Non siamo competitivi perché il salario è bassissimo, non possiamo competere, almeno nel dottorato dove uno studente guadagna poco più di mille euro al mese, con gli stipendi che offrono queste multinazionali.
  Infine fiducia. Io credo che questa fiducia nelle università debba crescere a livello italiano, questa altissima scienza e tecnologia che noi sviluppiamo quotidianamente e che trasferiamo ai nostri studenti molto spesso va all'estero. Quindi io non parlerei solo, come spesso si fa, di fuga dei cervelli ma di fuga delle idee.
  Tantissimi progetti che noi svolgiamo sono in collaborazione con aziende straniere e vengono acquisiti dalle aziende straniere. Le aziende straniere hanno una grande fiducia nelle nostre capacità scientifiche e nelle nostre capacità di ricerca, il mio sogno è che questa stessa fiducia, attenzione e stima che io riscontro all'estero si possa anche sviluppare all'interno dell'Italia e venga supportata, perché credo che questo sia un elemento fondamentale per Pag. 28partecipare a questa corsa della conoscenza e della progettazione come attori piuttosto che come spettatori.
  Mi fermo qui perché credo di avere esaurito il mio tempo. Grazie.

  PRESIDENTE. Non essendoci richieste di intervento, ringrazio Paolo Ferràgina, Ordinario di algoritmi all'Università di Pisa. Autorizzo la pubblicazione in allegato al resoconto stenografico della seduta odierna della documentazione consegnata dal professor Paolo Ferràgina (vedi allegato 6) e dichiaro conclusa l'audizione.

  La seduta termina alle 12.20.

Pag. 29

ALLEGATO 1

Pag. 30

Pag. 31

Pag. 32

ALLEGATO 2

Pag. 33

Pag. 34

Pag. 35

Pag. 36

Pag. 37

Pag. 38

Pag. 39

ALLEGATO 3

Pag. 40

Pag. 41

Pag. 42

Pag. 43

ALLEGATO 4

Pag. 44

Pag. 45

Pag. 46

Pag. 47

Pag. 48

Pag. 49

Pag. 50

Pag. 51

Pag. 52

Pag. 53

Pag. 54

Pag. 55

Pag. 56

Pag. 57

ALLEGATO 5

Pag. 58

Pag. 59

Pag. 60

Pag. 61

ALLEGATO 6

Pag. 62

Pag. 63

Pag. 64

Pag. 65

Pag. 66

Pag. 67

Pag. 68

Pag. 69

Pag. 70

Pag. 71