XIX Legislatura

X Commissione

Resoconto stenografico



Seduta n. 16 di Martedì 20 febbraio 2024

INDICE

Sulla pubblicità dei lavori:
Cavo Ilaria , Presidente ... 3 

INDAGINE CONOSCITIVA SULL'INTELLIGENZA ARTIFICIALE: OPPORTUNITÀ E RISCHI PER IL SISTEMA PRODUTTIVO ITALIANO

Audizione, in videoconferenza, di Chiara Celsi, partner di Deloitte consulting area AI&DATA.
Cavo Ilaria , Presidente ... 3 
Celsi Chiara , partner di Deloitte consulting area AI&DATA (intervento in videoconferenza) ... 3 
Cavo Ilaria , Presidente ... 3 
Celsi Chiara , partner di Deloitte consulting area AI&DATA (intervento in videoconferenza) ... 3 
Cavo Ilaria , Presidente ... 3 
Celsi Chiara , partner di Deloitte consulting area AI&DATA (intervento in videoconferenza) ... 3 
Cavo Ilaria , Presidente ... 4 
Celsi Chiara , partner di Deloitte consulting area AI&DATA (intervento in videoconferenza) ... 4 
Cavo Ilaria , Presidente ... 5 
Celsi Chiara , partner di Deloitte consulting area AI&DATA (intervento in videoconferenza) ... 6 
Cavo Ilaria , Presidente ... 6 
Pavanelli Emma (M5S)  ... 6 
Cavo Ilaria , Presidente ... 7 
Celsi Chiara , partner di Deloitte consulting area AI&DATA (intervento in videoconferenza) ... 7 
Cavo Ilaria , Presidente ... 7 

Audizione, in videoconferenza, di Giovanni Sartor, ordinario di informatica giuridica presso l'Università degli studi di Bologna:
Cavo Ilaria , Presidente ... 7 
Sartor Giovanni , ordinario di informatica giuridica presso l'Università degli studi di Bologna (intervento in videoconferenza) ... 8 
Cavo Ilaria , Presidente ... 9 
Pavanelli Emma (M5S)  ... 10 
Cavo Ilaria , Presidente ... 10 
Sartor Giovanni , ordinario di informatica giuridica presso l'Università degli studi di Bologna (intervento in videoconferenza) ... 10 
Cavo Ilaria , Presidente ... 11 

ALLEGATO: Documentazione depositata da Chiara Celsi, partner di Deloitte consulting area AI&DATA ... 12

Sigle dei gruppi parlamentari:
Fratelli d'Italia: FdI;
Partito Democratico - Italia Democratica e Progressista: PD-IDP;
Lega - Salvini Premier: Lega;
MoVimento 5 Stelle: M5S;
Forza Italia - Berlusconi Presidente - PPE: FI-PPE;
Azione - Popolari europeisti riformatori - Renew Europe: AZ-PER-RE;
Alleanza Verdi e Sinistra: AVS;
Noi Moderati (Noi con L'Italia, Coraggio Italia, UDC e Italia al Centro) - MAIE: NM(N-C-U-I)-M;
Italia Viva - il Centro - Renew Europe: IV-C-RE;
Misto: Misto;
Misto-Minoranze Linguistiche: Misto-Min.Ling.;
Misto-+Europa: Misto-+E.

Testo del resoconto stenografico

PRESIDENZA DELLA VICEPRESIDENTE
ILARIA CAVO

  La seduta comincia alle 15.

Sulla pubblicità dei lavori.

  PRESIDENTE. Avverto che la pubblicità dei lavori della seduta odierna sarà assicurata anche mediante la resocontazione stenografica e la trasmissione attraverso la web-tv della Camera dei deputati.

Audizione, in videoconferenza, di Chiara Celsi, partner di Deloitte consulting area AI&DATA.

  PRESIDENTE. L'ordine del giorno reca, ai sensi dell'articolo 144, comma 1, del Regolamento, l'audizione, in videoconferenza, di Chiara Celsi, partner di Deloitte consulting area AI&DATA nell'ambito dell'indagine conoscitiva sull'intelligenza artificiale: opportunità e rischi per il sistema produttivo.
  Invito chi interviene a volerlo fare sinteticamente, in modo da lasciare più spazio possibile alle domande dei commissari, riservando gli ulteriori approfondimenti ad un eventuale contributo scritto, che verrà volentieri acquisito ai lavori della Commissione, focalizzandosi sull'oggetto dell'indagine come definito dal programma.
  Do la parola a Chiara Celsi, ricordando che il tempo complessivo a disposizione è di circa otto minuti.

  CHIARA CELSI, partner di Deloitte consulting area AI&DATA (intervento in videoconferenza). Buongiorno. Ho predisposto un documento, che vi ho già inviato (vedi allegato). Non so se riuscite a visualizzarlo.

  PRESIDENTE. Penso che debba condividerlo. In questo momento non lo vediamo.
  Noi abbiamo il suo documento, poiché lei l'ha trasmesso, ed è già a disposizione di tutti i colleghi. Le concediamo ancora qualche istante per vedere se riesce a condividerlo.

  CHIARA CELSI, partner di Deloitte consulting area AI&DATA (intervento in videoconferenza). Non riesco a condividerlo perché i miei setting non sono collegati con l'applicazione Webex, purtroppo.

  PRESIDENTE. Poiché lo ha mandato in digitale, facciamo una verifica con i nostri uffici per vedere se riescono a condividerlo da qui. Intanto può iniziare l'audizione, altrimenti sforiamo con i tempi e non possiamo permettercelo poiché abbiamo l'Assemblea che inizia a breve i lavori.

  CHIARA CELSI, partner di Deloitte consulting area AI&DATA (intervento in videoconferenza). Sono Chiara Celsi, partner di Deloitte per l'area AI&DATA. L'area AI&DATA si occupa dell'intelligenza artificiale e in generale di tutto l'utilizzo del dato e dell'advanced analytics.
  Abbiamo un'esperienza importante in termini sia di implementazione di use case di intelligenza artificiale, sia di sharing delle informazioni a livello global, grazie a organizzazioni che abbiamo creato a livello mondiale, che si chiamano «Deloitte AI Institute», che hanno l'obiettivo di cogliere le nuove tecnologie sul mercato e di comprendere effettivamente quali sono le richieste che vengono dal business e, quindi, da tutte le industry che presidiamo.
  Vi ho riportato alcune nostre storie di successo, tra le quali la più famosa, che è Pag. 4quella che raccontiamo sempre, è sicuramente quella di ANSA. La nostra intelligenza artificiale legge da fonti certificate di ANSA in centodieci lingue diverse, creando delle macro-notizie, che poi vanno a contribuire all'archivio di notizie nello stile linguistico dei giornalisti della redazione ANSA. Nessuno all'interno della redazione, nonostante l'utilizzo dell'intelligenza artificiale di Deloitte, ha perso il lavoro. Anzi, in realtà oggi la nostra intelligenza artificiale è utilizzata come una fonte in più.
  Sempre nella stessa slide ho riportato una serie di nostre storie di successo.

  PRESIDENTE. Possiamo condividere le slide, le abbiamo trovate. Prego.

  CHIARA CELSI, partner di Deloitte consulting area AI&DATA (intervento in videoconferenza). Perfetto. Come vi dicevo, la prima storia di successo è quella di ANSA. Poi, come vedete, spaziamo su varie industry di mercato, ad esempio una banca italiana, in cui abbiamo un caso di dispacciamento delle e-mail molto efficace, perché oggettivamente molte risorse erano dedicate al dispacciamento corretto delle comunicazioni.
  Un altro caso molto significativo è quello che abbiamo chiamato «Legal easy», che è un use case di AI generativa che permette di semplificare il linguaggio delle clausole contrattuali, piuttosto che una cabina di regia di adozione dell'AI all'interno di una banca italiana. Come vedete, abbiamo moltissimi casi sia di advanced analytics sia di artificial intelligence tradizionale e generativa.
  Andiamo alla slide successiva (vedi allegato, slide n. 3). Qui vi ho riportato una breve descrizione, più che altro un glossario, su che cos'è l'intelligenza artificiale, che non è altro che sistemi che emulano alcune funzionalità del cervello umano. Quando parliamo di intelligenza artificiale dobbiamo distinguere il machine learning, il deep learning e la generative AI.
  Il machine learning è un sistema che impara da dati strutturati, quindi tendenzialmente tabellari, un fenomeno e riesce a identificare un pattern di dati all'interno di questo fenomeno, per poter poi fare una serie di predizioni.
  Il deep learning si basa su reti neurali più complesse, quindi è in grado di modellare problemi più complessi, e include anche, tornando alla computer vision, il natural learning processing, che sono gli algoritmi che permettono di comprendere e analizzare il linguaggio naturale.
  La generative AI è costituita da quegli algoritmi che riescono a generare nuovi dati in termini di video, di audio e anche di codice software.
  Ad ogni tipo di intelligenza artificiale abbiamo associato quello che è un tipo di output e, quindi, un use case possibile. In generale, l'intelligenza artificiale ci permette di automatizzare e monitorare attività ripetitive, il machine learning di fare predizioni e raccomandazioni, il deep learning di classificare e ottimizzare informazioni e la generative AI di comprendere e generare soprattutto un dato non strutturato, quindi non tabellare.
  Andiamo alla slide successiva (vedi allegato, slide n. 4). All'interno di queste quattro classificazioni di output di intelligenza artificiale vi è riportata una serie di applicazioni, che sono quelle che oggettivamente vediamo oggi sul mercato.
  Nella prima classificazione c'è sicuramente tutta quella che è l'automatizzazione di processi, quindi attività ripetitive che possono essere automatizzate, riducendo gli errori manuali e l'identificazione delle anomalie, per esempio i pattern fraudolenti, la classificazione di dati e, quindi, la categorizzazione di dati strutturati, e non, in classi predefinite, il monitoraggio di KPI (Key Performance Indicators).
  Nella tipologia della predizione e della raccomandazione c'è tutto il tema del fare previsioni di grandezze numeriche, per esempio finanziarie ed economiche, prevenire il churn, che è il rischio di abbandono della clientela, nonché il suggerimento della next best action, per cui sulla base di una certa situazione la macchina riesce a suggerire qual è la migliore azione da intraprendere, valutazione della propensity, che è la predizione dell'attitudine alla spesa di un certo cliente.Pag. 5
  La classificazione e l'ottimizzazione portano a comprendere quali sono i sentimenti ad esempio in un feedback di un cliente, banalmente in un call center, segmentare il cliente sulla base di quello che è il comportamento, ottimizzare la workforce (forza lavoro) all'interno di un'azienda per avere performance migliori e dispacciare le comunicazioni automaticamente sulla base del contenuto. Comprendere e generare, quindi, l'iper-personalizzazione di contenuti di vario tipo, che possono essere contenuti di advertising, quindi di marketing, social eccetera, sommarizzare il testo, che adesso con GPT non è più semplice, generare qualsiasi tipo di insight da grandi numeri di dati e generare codice software.
  Il mercato italiano dell'AI oggi – vi ho riportato alcuni numeri aggiornati prodotti dall'Osservatorio Artificial Intelligence del Politecnico di Milano (vedi allegato, slide n. 5) – registra i seguenti dati: circa 760 milioni è il dimensionamento del mercato italiano dell'intelligenza artificiale nel 2023, di questi 38 milioni (5 per cento) sono legati all'AI generativa, quindi nonostante l'hype effettivamente il mercato in termini numerici non è ancora impressionante come proporzione; sei grandi imprese su dieci hanno già fatto partire dei progetti di AI, ma solo il 18 per cento delle PMI ha fatto partire delle sperimentazioni; un italiano su quattro ha effettivamente interagito almeno una volta con ChatGPT; il 77 per cento degli italiani guarda all'AI con paura, specialmente per tutte quelle che sono le implicazioni sul mondo del lavoro, e tra l'altro una percentuale intorno, mi pare, al 15 per cento ritiene che sia necessario non far entrare l'intelligenza artificiale nel mondo produttivo.
  L'AI, quindi, è ovunque, come si vede anche dal numero abbastanza alto di investimenti sul mercato italiano. È necessario, però, considerare correttamente quelle che sono le opportunità, e qui ve ne ho riportate alcune, come può essere la sfida ambientale o quella demografica, i miglioramenti di salute nell'utilizzo dell'AI su tutto il mondo clinico, l'automazione e la produttività, ma anche quelli che sono i rischi, intanto ovviamente quello di una bolla legata all'hype, tutti i problemi di privacy e sicurezza, la perdita di posti di lavoro, i comportamenti malevoli, ovviamente legati all'utilizzo dell'AI, i temi legali ed etici. È richiesto, quindi, un approccio specifico che permetta di avere, effettivamente, un'intelligenza artificiale simbiotica. Quando si parla di intelligenza simbiotica, si parla di uno stretto legame tra intelligenza artificiale e intelligenza umana, basata su tre elementi fondamentali, che sono: da una parte, la fiducia dei cittadini, che devono essere correttamente informati e consapevoli; un training costante soprattutto da parte delle aziende, che devono promuovere una AI etica; solidi pilastri etici alla base dell'AI. I solidi pilastri etici, ovviamente, sono già stati stabiliti dalla normativa europea, ma c'è sicuramente ancora molto da lavorare nell'adozione dell'AI Act.
  Nella slide successiva (vedi allegato, slide n. 6) vi ho riportato uno studio interno di Deloitte sui mestieri che hanno un tema di urgenza e strategicità nei prossimi anni, proprio legati alle professionalità che oggi hanno maggiore interesse perché legate al mondo dell'AI.
  L'Osservatorio del Politecnico di Milano ci riporta che da qui a dieci anni le nuove capacità delle macchine potrebbero svolgere il lavoro di circa 3,8 milioni di persone in Italia. Quindi, ad oggi una delle previsioni del Politecnico di Milano è che 3,8 milioni di persone in Italia compiono attività che possono essere sostituite dalle macchine. Dall'altra parte, però, come si vede da questo grafico, molti nuovi profili stanno nascendo proprio perché è importante sviluppare profili legati a tutto il mondo dell'AI.
  Qui sono divisi in tre cluster, per strategicità e urgenza. Il cluster più scuro, come vedete, riporta, ad esempio, tutti i prompt engineering, quindi le persone specializzate nell'utilizzo dell'intelligenza artificiale e nel dare comandi corretti all'intelligenza artificiale, piuttosto che gli esperti di finanza sostenibile anche tramite l'AI...

  PRESIDENTE. Devo invitarla a chiudere, perché siamo già a dodici minuti di intervento. Grazie.

Pag. 6

  CHIARA CELSI, partner di Deloitte consulting area AI&DATA (intervento in videoconferenza). Va bene.
  Nella slide successiva (vedi allegato, slide n. 7) ho riportato il landscape del World Economic Forum di Davos del 2024. Come potete vedere, il secondo rischio più importante percepito dal Forum è quello della disinformazione legata all'AI. Tra i rischi nei prossimi dieci anni – lo vedete nell'ultimo grafico, in basso a destra – non c'è soltanto la disinformazione legata all'AI, ma ci sono anche tutti quegli outcome avversi che potrebbero essere portati dall'utilizzo della tecnologia AI.
  Nella slide successiva (vedi allegato, slide n. 8) ho riportato la mappa di interconnessione dei rischi. Tutti i rischi colorati in viola, che vedete in alto a destra, sono rischi legati all'utilizzo dell'AI e della tecnologia, che sono facilmente riconducibili – lo vedete dalle connessioni – a rischi di social polarization, piuttosto che di violenza tra Stati, erosione dei diritti umani e attacchi terroristici. Tutto ciò perché, comunque, oggettivamente l'AI si porta dietro un rischio di utilizzo malevolo e di disinformazione molto importante, da tenere sotto controllo.
  Partire dall'inizio per l'adozione dell'AI (vedi allegato, slide n. 9), partire from scratch, quindi capire come adottare l'AI per le imprese non è soltanto un tema di sperimentazione tecnologica, ma è anche un tema di visione di business, priorità strategiche, data strategy, enable technology, cioè su cosa basare effettivamente l'utilizzo dell'AI da un punto di vista tecnologico, change management, perché si parla di skills e capabilities che è necessario creare, sviluppare e ricercare sul mercato, e tutte quelle che sono le sfide legali ed etiche.
  Andiamo alla slide successiva (vedi allegato, slide n. 10). Qui ho declinato tutti i punti inseriti nella slide precedente, proprio perché è necessario adottare un approccio sistemico che permetta, da una parte, di vedere le opportunità e, dall'altra, di minimizzare i rischi.
  Nell'ultima slide (vedi allegato, slide n. 11) ho riportato quelli che sono i rischi dell'AI su cui si basa l'AI Act per minimizzare tutti i rischi – non solo quelli qui riportati – che sono legati ai bias, quindi alla discriminazione, alle allucinazioni, ai comportamenti malevoli. È inutile che vi dica che non è l'algoritmo stesso che genera bias o allucinazioni, ma è l'umano nell'addestramento della macchina.

  PRESIDENTE. Grazie.
  Do la parola ai colleghi che intendono intervenire per porre questi o formulare osservazioni.

  EMMA PAVANELLI. Signor presidente, ringrazio la dottoressa Celsi. Cercherò sicuramente di approfondire con calma tutte le slide, perché il tempo oggi a nostra disposizione è poco.
  Vorrei farle una domanda, dottoressa. Qui sono settimane che stiamo facendo audizioni e ovviamente sono emerse moltissime sfaccettature sull'intelligenza artificiale, molte sicuramente positive altre, invece, critiche a partire dalla formazione per le nuove generazioni e per le piccole e medie imprese, al fine di evitare che restino indietro. Ciò che mi preme in questo momento – la ringrazio per averlo comunque sottolineato, anche se brevemente, nella sua esposizione – riguarda soprattutto il tema della privacy.
  È vero, stiamo usando sempre di più l'intelligenza artificiale. Oggi abbiamo addirittura comuni che vanno nella direzione delle smart cities, dove utilizzano anche dati, immagini e voci. Abbiamo visto che in alcuni comuni si sono anche sollevate diverse criticità, che poi magari sono affidate ad aziende terze, magari addirittura estere, per gestire la sicurezza di una città, piuttosto che altre questioni. Ebbene, con riguardo a questa modalità, a questo rischio come pensate – non so se poi vorrete elaborare ulteriormente uno scritto – che si possa tenere quanto più possibile sotto controllo? Quali sono le regolamentazioni che dovremmo mettere in campo, in quanto legislatori, per far sì che la privacy dei cittadini, dei turisti, di chi lavora e opera nelle nostre città possa essere tutelata?
  Grazie.

Pag. 7

  PRESIDENTE. Non essendovi ulteriori richieste di intervento, le faccio anch'io due domande velocissime.
  Lei diceva che c'è la possibilità che da qui a dieci anni l'intelligenza artificiale svolga il lavoro di 3,8 milioni di persone in Italia e che, però, ci saranno mestieri che verranno sostituiti dall'intelligenza artificiale. Chiaramente questo è un tema che affiora in tutte le audizioni, quello del lavoro e della sostituzione delle figure professionali. Ha una stima di quante saranno? È in grado di quantificare sia le tipologie che i numeri relativamente ai nuovi mestieri? Quale sarà il gap tra chi sarà sostituito e chi potrà, invece, subentrare? Questa è la prima domanda.
  Passo alla seconda domanda. Mi incuriosiva una slide che lei ha fatto vedere, anche se velocemente. Quando lei dice che il rischio maggiore è la disinformazione, quanto riferito deriva da quanto analizzato nel Forum di Davos? Soprattutto, sulla base della ricerca che lei ha fatto – ci ha presentato una slide sintetica a tal riguardo –, quali accorgimenti si pensa di adottare? Come si articola questa tematica, che è molto rilevante?

  CHIARA CELSI, partner di Deloitte consulting area AI&DATA (intervento in videoconferenza). Il tema della privacy è sicuramente già all'interno dell'AI Act, quindi della normativa europea. Sulla privacy è necessario non fermarsi soltanto al tema del dato, ma anche al tema dello stack tecnologico. È importantissimo, quindi, comprendere quanto il tema della privacy sia legato anche all'adozione del cloud. Dunque, non è soltanto un tema di AI, ma è anche un tema di tecnologie adottate.
  Per quanto riguarda i numeri di cui parlava, che vi ho mostrato, sono i numeri dell'Osservatorio del Politecnico di Milano, che dava anche un numero legato all'esigenza demografica, vale a dire che entro il 2033 – quindi si parlava dei numeri di sostituzione dei posti di lavoro dell'AI –, avremo un deficit di posti di lavoro equivalenti di 5,3 milioni legato al calo demografico. Quindi, la conclusione dell'Osservatorio di Milano in realtà è legata proprio al fatto che l'AI andrebbe a colmare una parte del gap che l'Italia ha come gap demografico.
  Relativamente, invece, a quelli che sono i numeri di profili legati all'AI che effettivamente potrebbero, anche lì, andare a colmare un gap, la ricerca non li contiene. In questo momento ci sono varie analisi sul mercato, ma sulla quantificazione del numero di questi profili non ho visto nulla che, francamente, mi sento di riferirvi.
  L'ultima domanda che mi ha fatto è legata al report dei rischi redatto dal World Economic Forum. In effetti, è del World Economic Forum quella mappa che ha visto. Sicuramente la parte dell'AI Act che va a normare la spiegabilità dei modelli ci aiuta, perché è necessario che ogni azienda riesca a spiegare che cosa fanno i modelli e a controllare come entrano i dati e a come vengono gestiti. È ovvio che, purtroppo, la disinformazione legata all'AI potrebbe sfuggire ai controlli delle aziende, che siano grandi o PMI, e potrebbe essere utilizzata diversamente, ad esempio dai social, piuttosto che in maniera malevola. Temo che in questo momento l'AI Act e la normativa europea da questo punto di vista abbiano una lacuna.

  PRESIDENTE. Non essendoci altre richieste di intervento, ringrazio l'ospite intervenuta. Autorizzo la pubblicazione in allegato al resoconto stenografico della seduta odierna della documentazione consegnata da Chiara Celsi, partner di Deloitte consulting area AI&DATA (vedi allegato) e dichiaro conclusa l'audizione.

Audizione, in videoconferenza, di Giovanni Sartor, ordinario di informatica giuridica presso l'Università degli studi di Bologna.

  PRESIDENTE. L'ordine del giorno reca, ai sensi dell'articolo 144, comma 1, del Regolamento, l'audizione, in videoconferenza, di Giovanni Sartor, ordinario di informatica giuridica presso l'Università degli studi di Bologna nell'ambito dell'indagine conoscitiva sull'intelligenza artificiale: opportunità e rischi per il sistema produttivo.Pag. 8
  Invito chi interviene a volerlo fare sinteticamente, in modo da lasciare più spazio possibile alle domande dei commissari, riservando gli ulteriori approfondimenti ad un eventuale contributo scritto, che verrà volentieri acquisito ai lavori della Commissione, focalizzandosi sull'oggetto dell'indagine come definito dal programma.
  Do la parola a Giovanni Sartor, ricordando che il tempo complessivo a disposizione è di circa otto minuti.

  GIOVANNI SARTOR, ordinario di informatica giuridica presso l'Università degli studi di Bologna (intervento in videoconferenza). Buongiorno. Innanzitutto vorrei ringraziare per l'opportunità di poter parlare davanti a questa Commissione. Per me è un piacere e un onore essere qui con voi.
  Nei minuti a mia disposizione dirò innanzitutto due parole su di me, per poi passare al settore di cui mi sono occupato, l'informatica nel diritto e le prospettive di crescita e sviluppo anche industriale in questo settore.
  Io mi occupo di intelligenza artificiale fin dagli anni Ottanta, quando scrissi un volume sull'intelligenza artificiale e il diritto. Ho insegnato informatica giuridica in Italia e all'estero e ho partecipato a numerosi progetti nazionali e internazionali in materia. Ho ottenuto recentemente un cospicuo finanziamento europeo per studiare e realizzare sistemi di intelligenza artificiale che rispettino le norme giuridiche ed etiche. Faccio parte del consiglio scientifico ERC (European Research Council), l'organo europeo che governa i finanziamenti alla ricerca di eccellenza.
  Nel corso della mia carriera ho assistito al lento sviluppo e al limitato successo dell'intelligenza artificiale fino alla fine del secolo scorso e poi al suo tumultuoso progresso accelerato. Grazie alle tecnologie dell'apprendimento automatico, la macchina ha acquisito la capacità di svolgere una gamma sempre più ampia di attività, dalla traduzione alla diagnosi medica, alle decisioni automatiche. Negli ultimi tre anni, come voi sapete, siamo entrati nell'era dell'intelligenza artificiale generalista, che sa fare tantissime cose, anche non previste da chi le ha realizzate. L'esempio è il GPT e altri sistemi simili in grado di generare ogni tipo di contenuto (testi, immagini, filmati). Il futuro è aperto e le sorprese sono solo agli inizi.
  Questo sviluppo accelerato presenta, io penso, sfide inedite per il nostro sistema produttivo e la nostra amministrazione. Queste sfide riguardano tre aspetti: l'uso dell'intelligenza artificiale, la creazione dell'intelligenza artificiale e la sua regolazione.
  La prima sfida, quindi, riguarda l'uso dell'intelligenza artificiale nell'industria e nella pubblica amministrazione. Si tratta di usare le risorse dell'intelligenza artificiale per migliorare l'efficienza e l'efficacia del nostro sistema produttivo, della nostra sanità e della nostra pubblica amministrazione.
  La seconda sfida riguarda la creazione dell'intelligenza artificiale. C'è l'esigenza che il nostro Paese contribuisca allo sviluppo dell'intelligenza artificiale, anziché essere un mero utente di sistemi sviluppati da altri. Come sappiamo, gli Stati Uniti hanno un ruolo dominante nella ricerca e nell'industria dell'intelligenza artificiale, segue la Cina, mentre l'Europa si trova a inseguire a distanza.
  La terza sfida è la regolazione: come far sì che l'intelligenza artificiale sia sviluppata e usata nel rispetto dei diritti individuali e dei valori sociali.
  Le tre sfide sono collegate, perché l'uso efficace dell'intelligenza artificiale stimola le attività produttive volte a fornire strumenti di intelligenza artificiale e la regolazione non dovrebbe ostacolare l'innovazione ma, anzi, dare certezza a creatori e utilizzatori stimolando lo sviluppo di buone applicazioni.
  Mi concentro, nei minuti che mi rimangono, sull'uso dell'intelligenza artificiale nell'amministrazione pubblica e nella giustizia, le tematiche di cui mi sono occupato nella mia carriera.
  Vorrei innanzitutto fare riferimento a un'esperienza a cui io stesso ho partecipato. Si tratta del progetto Prodigit, che ha coinvolto il Ministero dell'economia e delle finanze, SOGEI e il Consiglio della giustizia tributaria. Abbiamo usato tecnologie di intelligenzaPag. 9 artificiale avanzate per realizzare due funzionalità principali: generare automaticamente sintesi, sommari delle decisioni dei giudici; ricercare le sentenze sulla base del loro contenuto di significato. Vi confesso che le sperimentazioni si sono concluse con risultati al di là delle attese: abbiamo prodotto automaticamente sommari di più di duemila sentenze che sono stati ritenuti di alta qualità dagli esperti e abbiamo realizzato nuove funzioni per la ricerca e la selezione del materiale giurisprudenziale. Ma si tratta solo dell'inizio. Ci sono molte possibilità di usare l'intelligenza artificiale per facilitare l'accesso alla giustizia e accrescere l'efficienza del sistema giudiziario.
  Un primo aspetto di cui ci si deve occupare è quello della conoscenza del diritto. Strumenti per l'analisi e la ricerca delle fonti del diritto, come quelli da noi sviluppati nel progetto Prodigit, di cui ho appena parlato, già oggi possono facilitare il lavoro del giudice, dell'avvocato e del funzionario, ma sviluppi ulteriori sono possibili. La conoscenza del diritto può estendersi alla capacità di anticipare, in qualche misura, gli esiti possibili delle controversie o, meglio, di avere accesso ad argomenti giuridicamente rilevanti che possono influire su tali esiti.
  Ciò ci conduce a un secondo aspetto: l'uso dell'intelligenza artificiale per la redazione degli atti dei giudici, degli avvocati e dei funzionari non solo con l'inserimento di elementi poi determinati, ma con suggerimenti di regole e princìpi applicabili. Si tratta, quindi, di ampliare le informazioni disponibili agli operatori del diritto, in modo che possano meglio configurare le proprie argomentazioni e giustificare le proprie scelte.
  Altri aspetti, su cui non mi soffermo, riguardano la documentazione sui fatti delle cause, l'estrazione delle informazioni rilevanti e la valutazione delle prove.
  Badate, il tema del supporto alle attività di giudici e avvocati è solo un aspetto dell'uso dell'intelligenza artificiale nella creazione e nell'applicazione del diritto. Bisogna considerare anche la dimensione delle indagini, come quelle in materia fiscale, volte a individuare casi di irregolarità o evasioni, oppure per il supporto alle decisioni amministrative, dove bisogna conciliare decisione e uniformità con le esigenze di equità nella valutazione dei casi concreti.
  Le possibilità di usare l'intelligenza artificiale nell'amministrazione pubblica e nella giustizia sono veramente molte. In questi ambiti si potrebbe realizzare un doppio risultato: da un lato, aumentare l'efficienza dell'amministrazione e la sua capacità di rispondere ai bisogni dei cittadini; dall'altro lato, dare uno sbocco all'industria italiana, che potrebbe impegnarsi nello sviluppo di applicazioni e di intelligenza artificiale radicate nel nostro Paese, nella sua cultura giuridica e amministrativa. Si tratta di applicazioni in cui sono importanti l'efficienza e l'efficacia, ma anche gli aspetti etici e giuridici. Vi è l'esigenza di preservare la componente umana, il ruolo e la competenza degli esperti e dei validi giudici e amministratori di cui disponiamo e di usare l'intelligenza artificiale per potenziare le capacità umane, anziché per sostituirle. Anche in relazione a questo aspetto, dell'inserimento proficuo dell'intelligenza artificiale nelle nostre strutture pubbliche, è importante coinvolgere le università e l'industria del software.
  Per completare la mia analisi, faccio un accenno al nuovo regolamento per l'intelligenza artificiale che sta per essere emanato dalle istituzioni europee. Si tratta di una normativa complessa, ampia, che coinvolge tanti attori diversi (sviluppatori, distributori, organi di certificazione e di standardizzazione, autorità nazionali ed europee). La sfida è applicare tale normativa in modo da garantire diritti e valori senza imporre eccessivi oneri alle imprese e senza limitare le opportunità di usi benèfici dell'intelligenza artificiale.
  Questo è un compito difficile, ma penso che con l'impegno di tutti ci possiamo riuscire.
  Grazie molte per la vostra attenzione.

  PRESIDENTE. Grazie a lei, professore Sartor.Pag. 10
  Do la parola ai colleghi che intendono intervenire per porre questi o formulare osservazioni.

  EMMA PAVANELLI. Signor presidente, ringrazio il professore Sartor, che spero ci abbia inviato una relazione per poter approfondire tutte le questioni con maggiore calma.
  Dal punto di vista del diritto è da tempo che esiste questo tipo di sistemi che vanno ad agevolare i grandi studi. Negli Stati Uniti già da alcuni anni grandi studi stanno utilizzando questi percorsi. Oggi, ovviamente, questo significa che la figura del paralegale, nel caso specifico, viene meno e, pertanto, si pone un problema di formazione delle prossime generazioni e di chi lavora in quel settore, cosa che però, ovviamente, succede in tutti i settori.
  Per quanto riguarda la pubblica amministrazione, ben vengano queste novità, se vanno ad agevolare il lavoro di chi lavora nella pubblica amministrazione a tutti i livelli, nazionale, regionale e comunale. Ovviamente serve anche chi è in grado di poterle utilizzare. Pertanto, forse bisogna partire dall'inizio, ovverosia dalla formazione, che deve iniziare dalle nuove generazioni, ma per poter iniziare questa formazione abbiamo bisogno di giovani formati che poi vadano a insegnare. Insomma, è un po' un cane che si morde la coda.
  Qui siamo in Commissione attività produttive e lei ha fatto notare, infatti, che l'utilizzo dell'AI potrebbe aiutare sicuramente le imprese a velocizzare dal punto di vista amministrativo anche i loro processi interni, e di questo sono convinta anch'io. Gli interrogativi che ci si pongono riguardano, da una parte, la formazione e, dall'altra, la perdita dei posti di lavoro. Ma ciò che preme tantissimo è poter adeguare le PMI, e soprattutto le piccole imprese, piuttosto che i commerci, proprio quelle piccolissime aziende, che abbiamo sui nostri territori per far sì che la desertificazione non diventi la norma, ma che si possa mantenere un livello di attività operante sui nostri territori, in modo che le piccole imprese non vengano mangiate dalle grandi imprese. La domanda che le pongo, quindi, è come riuscire a far sì che anche loro possano accedere a quella formazione e avere le stesse possibilità e modalità rispetto alle altre imprese. Non so se è una questione che vi state ponendo anche voi a livello universitario, vale a dire come si può vedere il futuro delle nostre piccole imprese, delle nostre aziende – che siano agricoltori, commercianti o quant'altro –, utilizzando questa novità, che poi, come ha detto lei, non è esattamente una novità, ma viene concepita come tale perché adesso se ne parla più frequentemente e si è allargata la platea che utilizza l'intelligenza artificiale.
  Grazie.

  PRESIDENTE. Non essendovi ulteriori richieste di intervento, do la parola al nostro ospite per la replica.

  GIOVANNI SARTOR, ordinario di informatica giuridica presso l'Università degli studi di Bologna (intervento in videoconferenza). Vi ringrazio per questo quadro e per l'opportunità di rispondere a tutti questi temi.
  Per quanto riguarda l'intelligenza artificiale, bisogna considerare che i primi esperimenti risalgono agli anni Cinquanta, però negli ultimissimi anni c'è stata un'accelerazione rapidissima, in particolare dopo l'introduzione dei cosiddetti «modelli linguistici di grande dimensione» o intelligenza artificiale generalista. Nel progetto di cui vi parlavo abbiamo generato automaticamente le sintesi, i sommari e le massime delle sentenze, ma con gli strumenti a disposizione tre anni fa non era possibile farlo. Oggi, invece, è possibile ottenere questo risultato.
  L'uso di strumenti generativi di questo tipo sta avendo, già oggi, un impatto massiccio sull'attività degli avvocati e in qualche misura anche dei giudici (soprattutto degli avvocati per ora) che usano questi strumenti per generare delle bozze, avere degli input dei loro atti e poi raffinarli successivamente con il proprio lavoro.
  Si registra, quindi, un impatto massiccio sul lavoro giuridico. I cosiddetti «paralegal» ovviamente diventeranno meno necessari, ma anche altre professioni. Immaginiamo,Pag. 11 ad esempio, l'attività del traduttore legale, ma anche quella del traduttore in altri settori, o l'attività dell'interprete simultaneo. Insomma, ci sono professioni che effettivamente subiranno un impatto radicale.
  Per quanto riguarda l'attività legale e l'attività amministrativa, il contributo dell'uomo resta essenziale e sta a noi sviluppare applicazioni che non sostituiscano le capacità umane, ma che le integrino, anche per far sì che le applicazioni dell'intelligenza artificiale rimangano sensibili ai bisogni delle persone e alle esigenze dell'equità.
  Circa la formazione, con l'università siamo attivi. Ricordo che da tempo presso l'Università di Bologna abbiamo un master nel diritto delle nuove tecnologie, che io dirigo ormai da circa un ventennio, ma anche iniziative importanti. Abbiamo anche un master sulla privacy. Ricordo anche che è stata istituita una laurea in intelligenza artificiale presso la facoltà di ingegneria che ha lo scopo di fornire alle imprese professionisti in grado di sostenerle nello sviluppo e nell'applicazione dell'intelligenza artificiale all'interno delle attività imprenditoriali.
  La sfida è far sì che tutti, anche i piccoli, siano in grado di utilizzare queste tecnologie e che, quindi, esse non diventino un meccanismo che conduce a una maggiore concentrazione e a nuove forme di monopolio.
  Spero che le normative in arrivo da parte dell'Unione europea – abbiamo la disciplina dei dati, dei servizi digitali e dell'intelligenza artificiale – possano contribuire a far sì che si evitino situazioni di monopolio e che anche i piccoli possano aver accesso a dati e ad applicazioni di intelligenza artificiale. È un auspicio, ma anche qui penso che con l'impegno di tutti ci si possa arrivare.

  PRESIDENTE. Non essendoci altre richieste di intervento, ringrazio l'ospite intervenuto e dichiaro conclusa l'audizione.

  La seduta termina alle 15.40.

Pag. 12

ALLEGATO

Documentazione depositata da Chiara Celsi,
partner di Deloitte consulting area AI&DATA.

Pag. 13

Pag. 14

Pag. 15

Pag. 16

Pag. 17

Pag. 18

Pag. 19

Pag. 20

Pag. 21

Pag. 22

Pag. 23