Sulla pubblicità dei lavori:
Rizzetto Walter , Presidente ... 3
INDAGINE CONOSCITIVA SUL RAPPORTO TRA INTELLIGENZA ARTIFICIALE E MONDO DEL LAVORO, CON PARTICOLARE RIFERIMENTO AGLI IMPATTI CHE L'INTELLIGENZA ARTIFICIALE GENERATIVA PUÒ AVERE SUL MERCATO DEL LAVORO
Audizione di rappresentanti dell'Associazione EGAIR.
Rizzetto Walter , Presidente ... 3
Archidiacono Francesco , fondatore di EGAIR ... 3
Rizzetto Walter , Presidente ... 4
Caparvi Virginio (LEGA) ... 4
Archidiacono Francesco , fondatore di EGAIR ... 4
Rizzetto Walter , Presidente ... 5
Archidiacono Francesco , fondatore di EGAIR ... 5
Rizzetto Walter , Presidente ... 6
Archidiacono Francesco , fondatore di EGAIR ... 7
Rizzetto Walter , Presidente ... 7
Ceccotti Lorenzo , membro di EGAIR ... 7
Rizzetto Walter , Presidente ... 8
Audizione di Armando Tursi, professore ordinario di diritto del lavoro presso l'Università degli studi di Milano:
Nisini Tiziana , Presidente ... 8
Tursi Armando , professore ordinario di diritto del lavoro presso l'Università degli studi di Milano ... 8
Nisini Tiziana , Presidente ... 11
Barzotti Valentina (M5S) ... 11
Nisini Tiziana , Presidente ... 11
Audizione di Matteo Flora, professore a contratto in Corporate reputation presso l'Università degli studi di Pavia:
Nisini Tiziana , Presidente ... 11
Flora Matteo , professore a contratto in Corporate reputation presso l'Università degli Studi di Pavia. (Intervento da remoto) ... 11
Nisini Tiziana , Presidente ... 13
Barzotti Valentina (M5S) ... 13
Flora Matteo , professore a contratto in Corporate reputation presso l'Università degli studi di Pavia (Intervento da remoto) ... 13
Nisini Tiziana , Presidente ... 14
Audizione di Giuseppe Attardi, professore ordinario di Informatica presso l'Università degli studi di Pisa:
Nisini Tiziana , Presidente ... 14
Attardi Giuseppe , professore ordinario di Informatica presso l'Università degli studi di Pisa ... 14
Nisini Tiziana , Presidente ... 17
Barzotti Valentina (M5S) ... 18
Nisini Tiziana , Presidente ... 18
Attardi Giuseppe , professore ordinario di Informatica presso l'Università di Pisa ... 18
Nisini Tiziana , Presidente ... 18
Allegato 1: Documentazione presentata dai rappresentanti dell'Associazione EGAIR ... 19
Allegato 2: Documentazione presentata dal professor Matteo Flora ... 25
Allegato 3: Documentazione presentata dal professor Giuseppe Attardi ... 32
Sigle dei gruppi parlamentari:
Fratelli d'Italia: FdI;
Partito Democratico - Italia Democratica e Progressista: PD-IDP;
Lega - Salvini Premier: Lega;
MoVimento 5 Stelle: M5S;
Forza Italia - Berlusconi Presidente - PPE: FI-PPE;
Azione - Popolari europeisti riformatori - Renew Europe: AZ-PER-RE;
Alleanza Verdi e Sinistra: AVS;
Noi Moderati (Noi con L'Italia, Coraggio Italia, UDC e Italia al Centro) - MAIE: NM(N-C-U-I)-M;
Italia Viva - il Centro - Renew Europe: IV-C-RE;
Misto: Misto;
Misto-Minoranze Linguistiche: Misto-Min.Ling.;
Misto-+Europa: Misto-+E.
PRESIDENZA DEL PRESIDENTE
WALTER RIZZETTO
La seduta comincia alle 13.35.
Sulla pubblicità dei lavori.
PRESIDENTE. Avverto che la pubblicità dei lavori della seduta odierna sarà assicurata anche mediante la resocontazione stenografica e la trasmissione attraverso la web-tv della Camera dei deputati.
Audizione di rappresentanti dell'Associazione EGAIR.
PRESIDENTE. L'ordine del giorno reca, nell'ambito dell'indagine conoscitiva sul rapporto tra Intelligenza Artificiale e mondo del lavoro, con particolare riferimento agli impatti che l'intelligenza artificiale generativa può avere sul mercato del lavoro, l'audizione di rappresentanti dell'Associazione EGAIR.
Ricordo che l'audizione odierna sarà svolta consentendo la partecipazione da remoto, in videoconferenza, dei deputati secondo le modalità stabilite dalla Giunta per il Regolamento. Sono presenti in rappresentanza dell'Associazione Francesco Archidiacono, fondatore, Lorenzo Ceccotti, membro di EGAIR assieme a Gaia Frascella e Lucia Peroni consulenti per le relazioni istituzionali.
Nel ringraziare i nostri ospiti per la disponibilità, cedo immediatamente la parola al dottor Archidiacono. Prego.
FRANCESCO ARCHIDIACONO, fondatore di EGAIR. Grazie presidente, grazie onorevoli. Siamo qui in rappresentanza di EGAIR che è un network di 140 mila tra artisti, associazioni di categoria e aziende europee, impegnati per ottenere una regolamentazione europea delle intelligenze artificiali generative. Vale la pena sottolineare che il network è europeo, ma è stato fondato in Italia e il coordinamento è italiano, aspetto che pone il nostro Paese in prima fila nel dibattito europeo e globale sul tema.
Quello che denunciamo come artisti è un uso illegittimo dei nostri lavori e dei nostri dati per il training delle intelligenze artificiali. Ora, come si sa l'addestramento dell'intelligenza artificiale richiede una grande quantità di dati, ma questo non deve ingannarci. I dati utilizzati al momento per addestrare tutti i principali modelli di intelligenza artificiale generativa presenti sul mercato non sono neutri, non sono dati frutto di scelte democratiche o casuali, presi da internet in maniera casuale; sono invece il frutto di scelte precise e ben ponderate da parte di queste aziende volte a prendere di mira la comunità creativa e la comunità degli artisti europea e globale.
Lo dicono queste aziende stesse, lo ha dichiarato OpenAI l'altro giorno, parlando del fatto che per loro è necessario utilizzare dati coperti da copyright per addestrare i loro algoritmi. Queste aziende hanno bisogno di questi dati; senza di essi non potrebbero vendere i loro servizi e non potrebbero offrire quegli stessi servizi. Questo perché hanno bisogno di dati di alta qualità, che siano fatti da professionisti, per assicurarsi che le intelligenze artificiali diano effettivamente degli output e generino dei risultati di alta qualità.
Questi servizi di AI vengono poi venduti sul mercato del lavoro in cui operano gli artisti stessi, facendoci concorrenza e producendo risultati catastrofici sul mercato Pag. 4del lavoro dell'arte e della creatività, colpendo sia i piccoli che i grandi. I piccoli sono colpiti perché cominciano a sparire i lavori entry level, quelli che sono necessari per cominciare effettivamente a lavorare, a costruire una carriera. I grandi invece sono quegli artisti i cui lavori sono stati presi e utilizzati per il training, il cui lavoro è più facilmente replicabile. Abbiamo numerose testimonianze di grandi artisti, grosse personalità dell'illustrazione e del fumetto che denunciano il fatto, ad esempio, che loro non trovano più i loro lavori su Google; infatti, se cercano il loro nome su Google escono unicamente plagi fatti con intelligenza artificiale, imitando il loro stile.
Noi, attraverso l'associazione e il nostro network, ormai è da un anno che raccogliamo segnalazioni di tutti i tipi di lavoratori che vedono lavori sparire, lavori per cui hanno firmato contratti che vengono cancellati, con lavoratori che si vedono sostituiti da intelligenze artificiali a volte addestrate con i loro stessi lavori.
Abbiamo diverse testimonianze di artisti che smettono di lavorare nel campo della creatività, che devono smettere di fare arte per vivere e per lavoro, perché cominciano a non guadagnare più quanto guadagnavano prima. Quindi un impatto importante sul nostro fatturato.
Quello che noi auspichiamo è che ci siano delle regole che si basino su due concetti molto semplici: il consenso e la trasparenza. Questo perché questi dati sono stati presi senza il nostro consenso e senza che noi avessimo possibilità di scelta. Siamo diventati, nostro malgrado, parte degli asset di queste aziende e non possiamo dire di no. Chiediamo quindi regole che si basino sul consenso e sulla trasparenza; auspichiamo anche l'istituzione di tavoli che mirino a regolare quanto avvenuto adesso e in passato, ovvero con riferimento ai danni già fatti, perché crediamo che questo uso illegittimo sia una violazione del copyright, della privacy, dei diritti morali, dei diritti d'autore. L'utilizzo di questi dati, di questi lavori per farci concorrenza va a ledere il nostro benessere, in violazione di tutte le normative internazionali sul copyright, come la Convenzione di Berna, ad esempio, che è stata anche recepita nelle direttive europee sul copyright.
Auspichiamo anche un'integrazione della normativa sul copyright italiana – in modo che in qualche maniera affronti direttamente queste nuove tecnologie – e auspichiamo inoltre che questo tema rientri quest'anno anche nelle politiche europee.
In Europa ci sono 7 milioni e 700 mila creativi, persone che lavorano nell'ambito della creatività e dell'arte. In Italia siamo un milione e 400 mila e chiediamo di essere rappresentati; chiediamo che si metta fine a un sistema basato sull'uso illecito dei dati e dei nostri lavori.
PRESIDENTE. Do la parola ai deputati che intendano porre quesiti o formulare osservazioni.
VIRGINIO CAPARVI. Intervengo solo per un chiarimento. Lei ha esposto in maniera puntuale la gravità, la criticità riguardante ciò che viene prima dell'applicazione dell'intelligenza artificiale in sé, cioè l'addestramento di sistemi fatti in maniera piratesca, acquisendo dati, anche biometrici, senza il consenso.
Poi, le chiedo, nella fase successiva, ammesso che giustamente debba intervenire una regolamentazione, questi sistemi addestrati quanto possono impattare e che tipi di opportunità o problemi possono dare alla categoria – capisco un po' generica – dei creativi?
FRANCESCO ARCHIDIACONO, fondatore di EGAIR. Allora, lei mi sta chiedendo se ci può essere un impatto in uno scenario in cui questi sistemi sono addestrati in maniera etica e legale. Noi abbiamo un manifesto come EGAIR, sosteniamo fin dall'inizio che in realtà questa può essere un'opportunità per la comunità creativa e la comunità artistica. La possibilità di cedere i propri dati e i propri lavori sotto contratti di licenza a queste aziende è una possibilità che esiste. Quando si parla di intelligenze artificiali noi parliamo del fatto che sono necessari tre asset: gli algoritmi, le risorse e i dati. Noi crediamo che l'Europa abbia una quantità sterminata di dati di Pag. 5alta qualità; la comunità creativa europea e italiana, oltretutto, è centrale a livello mondiale e la possibilità di vendere i nostri lavori e vedere fruttare il nostro lavoro anche in questa maniera è sicuramente qualcosa che recherebbe un beneficio per gli artisti. Però chiaramente ci deve essere un sistema regolamentato basato sul consenso.
PRESIDENTE. Intanto vi ringrazio. Lei è stato molto diretto, molto specifico e chiaro rispetto ad alcuni fenomeni che stanno avvenendo, ma soprattutto è stato molto chiaro rispetto agli impatti che questo può creare. Nella nostra indagine conoscitiva, e mi riferisco anche ai colleghi che oggi sono qui, non abbiamo mai notato almeno sino ad oggi una via di mezzo. Nel senso che abbiamo notato sempre due posizioni differenti: la prima è caratterizzata da una scarsa preoccupazione dell'impatto dell'intelligenza artificiale rispetto al proprio ambito lavorativo, rispetto al nostro mercato, nella consapevolezza di potercela fare; la seconda, altra faccia della stessa medaglia, è caratterizzata da un'elevata preoccupazione rispetto all'impatto dell'intelligenza artificiale, rispetto al copyright, rispetto ai posti di lavoro, rispetto a quello che fondamentalmente è il futuro delle proprie professioni.
Oggi voi come associazione rappresentate di fatto artisti e creativi fondamentalmente.
La prima e rapidissima domanda. Valutate sufficiente ad oggi quanto l'Unione europea ha previsto circa un mese fa? Apro e chiudo parentesi: ho come la vaga impressione che chiunque intervenga normativamente – sia gli Stati membri, sia l'Europa, sia ogni legislatore al mondo – , il rischio è che fra sei mesi qualsiasi disciplina sia obsoleta.
Considerato che rappresentate delle categorie ben specifiche, la vostra sensazione oggi è che vi sia la possibilità che il fruitore finale possa essere ingannato rispetto ad un'opera, rispetto ad una creazione, rispetto ad un lavoro più o meno artigianale, ma comunque artistico? Ovvero, sino a tre o quattro anni fa molto probabilmente anche il fruitore quello non particolarmente attento si sarebbe accorto di qualche differenza. Oggi a che punto siamo sotto questo punto di vista?
FRANCESCO ARCHIDIACONO, fondatore di EGAIR. Per rispondere alla prima domanda, se parliamo dell'AI Act europeo, rispetto a quello che si sa al momento, sicuramente sono stati fatti tanti passi avanti anche considerando da dove parte l'AI Act, da regolamenti in cui l'argomento delle intelligenze artificiali generative non è presente.
Troviamo che ci siano comunque ancora dei limiti nell'accordo preliminare, almeno in base a quello che è circolato. In particolare il riferimento diretto che si fa al meccanismo di opt-out crediamo che sia pericoloso sia perché il meccanismo di opt-out è descritto nella direttiva 2019/790 sia perché per come è descritto non sembrerebbe che si debba applicare al nostro campo, considerato che esiste una Convenzione di Berna che dice altrimenti (fra l'altro è anche un articolo della stessa direttiva). Inoltre non è chiarissimo come si può mettere in atto l'opt-out per come è descritto nella direttiva.
Quindi, al momento, poiché sembra che l'AI Act faccia un riferimento diretto a questo meccanismo, ci preoccupa anche in considerazione di possibili sviluppi in futuro della normativa UE stessa. Ad esempio, a fine novembre, se non sbaglio, è stata approvata un'iniziativa legislativa del Parlamento in cui si chiede alla Commissione di esaminare se ad esempio i princìpi che dovrebbero proteggere gli artisti siano validi. Ecco, un riferimento diretto all'opt-out nell'AI Act è pericoloso nel momento in cui si dovesse determinare che effettivamente non è valido o non è efficace. Quindi quello sicuramente è un limite, apprezziamo il lavoro fatto, ma è un limite.
Per quanto riguarda la sua seconda domanda, è complicato rispondere, dipende dall'ambito. Noi ci occupiamo soprattutto di illustrazione, l'ambito in cui è più facile determinare. Quello che possiamo dire è che se un'azienda che normalmente non si occupa di campi legati all'illustrazione, al videogame (campi in cui l'arte e il comparto visivo è fondamentale) utilizza immagini Pag. 6generate da intelligenza artificiale o altre cose simili è difficile che venga notato; il pubblico generalista non ci fa caso. In settori in cui la componente artistica è più preponderante e fondamentale – appunto il campo dei videogiochi ad esempio – è più facile che venga notato. Non è sempre così, ci sono stati diversi casi proprio negli ultimi giorni di importanti aziende che offrono e vendono prodotti per disegnare, ad esempio, che hanno utilizzato nelle loro campagne pubblicitarie immagini generate da AI, che sono state rapidamente notate. Ugualmente un'altra azienda, la Hasbro, ha utilizzato per le sue campagne pubblicitarie materiali generati da AI che sono stati notati.
C'è da dire però che all'interno dell'azienda nessuno si era accorto che quelle immagini erano state fatte dall'intelligenza artificiale. Quindi, l'impressione è che un pubblico di specialisti, un pubblico di persone che effettivamente lavorano con le immagini, sia in grado di accorgersene, per ora. Ma un pubblico più generalista, – le stesse persone che lavorano ad esempio nei reparti marketing di queste aziende – fa più fatica o non lo nota proprio.
C'è anche da dire che tutti gli strumenti che abbiamo, i detector di intelligenza artificiale, gli strumenti che ci dicono, ad esempio, se l'immagine è generata da intelligenza artificiale, cominciano a fallire, sono sempre meno efficaci e non si può sempre contare su di loro. Quindi diventa anche più complicato da quel punto di vista.
Sicuramente il tema dell'etichettatura di output di intelligenze artificiali è fondamentale perché diventerà sempre più difficile per tutti.
PRESIDENTE. Però scusi, mi permetta, la cosiddetta etichettatura – come l'ha chiamata lei – per come la vedo io è difficilmente controllabile, nel senso che noi oggi ci poniamo una domanda. Ovvero io mi pongo una domanda, ma penso anche i colleghi. Vedo mio figlio che ha 19 anni e che per scrivere qualche testo (anche se io gli dico di non farlo) per un esame all'università (ha iniziato qualche mese fa) utilizza ChatGPT 3.5, ed è già tanto che non utilizzi (perché non è abbonato) Chat GPT 4, che è un upgrade piuttosto importante che, se non ricordo male, va a pescare immediatamente tutti i dati in rete, quindi è aggiornato di millisecondo in millisecondo.
Il tema fondamentale è capire innanzitutto questi dati da chi sono controllati e se possono essere considerati eticamente veritieri; lo stesso dicasi per quanto riguarda l'etichettatura. In un prossimo futuro, immagino in modo abbastanza rapido, quando ci saranno delle aziende, delle strutture o delle associazioni virtuose, che potranno anche etichettare in modo giusto la filiera di questi prodotti che poi vengono creati, penso che ci sarà alle loro spalle o davanti a loro almeno un 97-98 per cento di altri soggetti che non andrà ad etichettare nulla, per una legge di mercato molto banale.
La domanda che ho fatto prima mi è venuta in mente perché – i colleghi sicuramente lo sanno – quando sono uscite ad esempio le famose foto dell'arresto di Donald Trump negli Stati Uniti, un giornale molto famoso negli Stati Uniti ha dichiarato che il 12,8 per cento della popolazione americana aveva creduto a quelle immagini che erano tra l'altro – ad un occhio non dico attento ma mediamente attento – ancora un po' grezze fondamentalmente, erano molto romanzate, molto pop. Però ci avevano creduto e quindi questo può avere, secondo noi, delle implicazioni; con un avvento ulteriore di tecnologie sempre più avanzate, può avere un impatto notevole. Non credo scatenerà mai una guerra, ma, ad esempio, le immagini di un leader politico di qualche Paese che parla in un determinato modo farà svegliare le Borse in un modo o nell'altro il giorno dopo. Io penso che questo tipo di affinazione del prodotto da qui ai prossimi tre o quattro anni porterà praticamente alla perfezione.
Come da lei ricordato (mi corregga se sbaglio), ogni utente che oggi utilizza un sistema di intelligenza artificiale generativa dà il consenso per i propri dati biometrici e questo è un consenso praticamente eterno. Nel senso che oggi un ragazzo di vent'anni dà un consenso per creare il video per farsi quattro risate con i suoi amici o con i Pag. 7colleghi o con gli studenti della sua classe. Se questo ragazzo di vent'anni fra 15 anni sarà Presidente del Consiglio dei ministri avrà dato, all'interno di questi sistemi, un via libera affinché questi sistemi replichino quasi perfettamente la sua voce, i suoi dati biometrici, le sue movenze. Quello è il dubbio – non soltanto in questo ambito evidentemente- che noi abbiamo. Noi, oggi, normiamo, ma dobbiamo intervenire in modo abbastanza deciso. Infatti, l'intelligenza artificiale e il machine learning rispetto ad alcuni ambiti – sanità, disuguaglianze, disabilità – può avere un impatto positivo molto molto profondo, ma sotto altri punti di vista penso che correremmo dei rischi abbastanza profondi.
FRANCESCO ARCHIDIACONO, fondatore di EGAIR. Perfettamente d'accordo su tutto. Mi viene da dire che sicuramente l'etichettatura ha tutta una serie di limiti; credo che sia comunque importante avere delle norme che almeno la descrivano, anche soltanto perché ci sia come questione di principio. È chiaro però che la base è quello che dicevamo prima, il consenso e la trasparenza. Un'intelligenza artificiale può generare un'immagine di Donald Trump perché ha nel suo data set delle foto di Donald Trump. Questo potrebbe essere un aspetto che si può regolamentare. L'intelligenza artificiale per avere immagini di Donald Trump deve avere il consenso di Donald Trump. È questo il punto probabilmente.
PRESIDENTE. Deve avere, mi scusi, il consenso di Donald Trump, d'accordo. Ma molto banalmente se io e il collega Scotto oggi pomeriggio andiamo su un normalissimo motore di ricerca e scarichiamo gratuitamente e senza alcun copyright delle foto ad alta risoluzione di Donald Trump, noi oggi siamo legittimati a farlo. È quello secondo me il controllo che già ex ante è mancato. Perché dieci anni fa esistevano i motori di ricerca, dieci anni fa esistevano le fotografie, le immagini da scaricare, i motori di ricerca senza alcun tipo di filtro.
Quello è il problema che avremo molto presto rispetto ad un mercato che impazzisce, nel senso che ci saranno pochi controlli o, per lo meno, qualcuno li farà mentre altri no.
LORENZO CECCOTTI, membro di EGAIR. Il punto fondamentale è che noi crediamo che ci debba essere una responsabilizzazione degli outlet che producono queste immagini; faccio un esempio banale, un esempio sotto gli occhi di tutti: come funziona YouTube. Io posso caricare un materiale che non è di mia proprietà. YouTube riconosce la fingerprinting materiale e distribuisce i proventi che vengono dalle riproduzioni al legittimo proprietario dei dati.
Quindi, ad esempio, se io carico un volto all'interno di un sistema di intelligenza artificiale dovrebbe essere una responsabilità di chi produce l'immagine, ovvero dell'azienda, di chiedere conto della natura di quelle immagini e prendere nota di chi ha prodotto quell'immagine perché sia tracciato il percorso di generazione dell'immagine stessa, affinché vengano riconosciute delle immagini che non sono di proprietà dell'utente che sta producendo il contenuto nuovo.
Quindi, banalmente – un aspetto secondo me molto importante che aggiungerei – l'opt-out ha proprio un problema tecnologico al momento. Anche se io dovessi, lo portava anche lei come esempio, a vent'anni introdurre i miei dati biometrici all'interno di un sistema, il problema significativo è che di fatto oggi non esiste il machine unlearning, cioè sono dei sistemi in cui i dati entrano e non possono uscire con certezza. Loro possono dirti che sei fuori dal prossimo processo di aggiornamento di un sistema, ma anche se tu non sei più nel dataset dell'aggiornamento successivo da qualche parte nell'eden space può essere che i tuoi dati ci siano.
Questa secondo me è un po' la situazione, è come se si stessero producendo automobili senza freni e quindi, banalmente, credo che dovrebbero essere dei prodotti che possono essere consegnati pronti per il mercato nel momento in cui avranno effettivamente tutte le tutele necessarie per proteggere i diritti dei cittadini europei.
PRESIDENTE. Grazie. È stato molto interessante. Avverto che gli auditi hanno messo a disposizione della Commissione una documentazione, di cui autorizzo la pubblicazione in calce al resoconto stenografico della seduta odierna (vedi allegato 1).
Dichiaro conclusa l'audizione.
PRESIDENZA DELLA VICEPRESIDENTE
TIZIANA NISINI
Audizione di Armando Tursi, professore ordinario di diritto del lavoro presso l'Università degli studi di Milano.
PRESIDENTE. L'ordine del giorno reca, nell'ambito dell'indagine conoscitiva sul rapporto tra Intelligenza Artificiale e mondo del lavoro, con particolare riferimento agli impatti che l'intelligenza artificiale generativa può avere sul mercato del lavoro, l'audizione di Armando Tursi, professore ordinario di diritto del lavoro presso l'Università degli studi di Milano Ringraziamo il nostro ospite per la disponibilità.
Cedo immediatamente la parola al professor Tursi, la vediamo. Buongiorno.
ARMANDO TURSI, professore ordinario di diritto del lavoro presso l'Università degli studi di Milano. (Intervento da remoto). Per essere un relatore sull'intelligenza artificiale sono un po' fallimentare perché ho avuto problemi a collegarmi. Mi è stato assegnato un tema dalla portata molto ampia, l'impatto sul mercato del lavoro. Io, molto brevemente e sinteticamente, lo delineerò per punti. L'impatto sul mercato del lavoro è ancora in via di esplorazione ed è affidato più che a giuristi a sociologi ed economisti del lavoro. Mi limiterò soltanto a rilevare come da una recente rilevazione, tra le tantissime in ambito aziendale, sulla diffusione dell'intelligenza artificiale emergono dei dati che testimoniano che è più presente per il momento la dottrina che le imprese sul versante dell'intelligenza artificiale. Per esempio, si rileva la presenza di strumenti digitali soprattutto, se non esclusivamente o quasi esclusivamente, tra le big companies e tra le aziende con sede dall'estero; uno dei settori più colpiti dall'intelligenza artificiale è quello dei portali di welfare aziendale. L'intervento per ora è abbastanza settoriale. Un altro settore è quello della customer relationship management del cloud computing. La ChatGPT è poco diffusa, ma dato interessante, è diffusa omogeneamente tra dirigenti, quadri e impiegati, a sostegno della tesi per cui l'intelligenza artificiale comporta sul rapporto di lavoro degli effetti in termini di degerarchizzazione e sviluppo del lavoro in team, con la svalutazione delle classificazioni attuali. Intendo analizzare quel particolare aspetto dell'informatica denominato intelligenza artificiale che rappresenta uno dei fattori del mutamento dell'organizzazione e dello svolgimento dell'attività lavorativa, che introduce per il giurista del lavoro problematiche di non facile interpretazione. È bene partire da un punto essenziale per orientarsi nella materia, su un piano non solo giuridico. Il punto essenziale è quello dell'individuazione del momento in cui da fattore utilizzato dal lavoratore come ausilio all'esecuzione della prestazione passa a fattore determinante della stessa prestazione, della quale non modula più esclusivamente i tempi e metodi di lavoro, ma fissa anche il contenuto. Si assiste in poche parole a un cambio di paradigma rispetto a quelli che fino a poco tempo fa erano detti sistemi esperti.
Un cambio di paradigma che però è legato più che alla qualità alla quantità di dati che vengono elaborati. La chiave di volta del passaggio dai sistemi esperti alla intelligenza artificiale sta sta nei volumi enormi di dati che consentono l'elaborazione statistica che agevola il processo decisionale nell'ambito delle aziende. L'approccio è quindi statistico e non causale, ma questa non è una novità; almeno da Hume in poi, facendo dei riferimenti filosofici ed epistemologici, la scienza avanza per induzione e per statistica non più in base a nessi causali. Questo solo apparentemente è estraneo all'ambito del diritto nel lavoro perché nel diritto del lavoro invece il concetto di causalità è ben presente; basti pensare che per rilevare una Pag. 9discriminazione nel diritto del lavoro è necessario individuare la causalità tra la condotta agita e gli effetti discriminatori. Qui invece si procede in termini statistici e non causali. Il punto è che gli algoritmi con i quali vengono addestrate queste macchine non sono matematica, ma opinioni incastonate in un linguaggio matematico e questo può incrementare una dinamica discriminatoria. L'intelligenza artificiale inizia quando l'operazione algoritmica tocca il livello della scelta e della decisione; senonché – è anche questo un rilievo filosofico prima che giuslavoristico – la decisione di una persona non è il prodotto di un algoritmo dal funzionamento biochimico, come sostiene il transumanesimo, ma è un elemento che deve coinvolgere primariamente la libertà umana. Questa è la sfida fondamentale dell'intelligenza artificiale: quella di conciliare l'incrementata potenzialità computazionale dei macchinari basati sull'intelligenza artificiale con la libertà umana. Posso fare un esempio per illustrare il nesso di tutto questo discorso con il fattore discriminatorio. Nell'amministrazione giudiziaria del Wisconsin esiste un sistema detto compass per la valutazione del rischio di recidiva e per la determinazione del rischio di recidiva ai fini della concessione di provvedimenti giudiziari. Si è scoperto che, utilizzando questo sistema dell'intelligenza artificiale, ne risultava una discriminazione dei neri, che da un punto di vista statistico sono quelli più soggetti a recidive nella commissione di crimini. C'è poi il problema, ben noto in ambito sanitario, con riflessi giuslavoristici, delle costanti algoritmiche che generano in via automatica regole e decisioni alle quali i decisori sono abilitati a rimettersi. Qui il problema che si configura plasticamente, non solo nel diritto del lavoro, ma nel diritto civile in generale, è quello della responsabilità.
Il decisore si trova di fronte all'alternativa tra adottare una decisione affidandosi integralmente alla macchina oppure avendo un'ultima parola o una delle parole decisive nel procedimento che porta alla decisione. Una delle vie d'uscita, anzi dei punti di approccio della legislazione comunitaria in cantiere alla tematica è quella proprio della previsione di un intervento umano nel processo decisionale con la configurazione però, faccio rilevare, di un apparente paradosso. E cioè che l'intelligenza artificiale, che serve a correggere l'imperfezione nella capacità computazionale umana, diventa fattore che non lede la libertà umana quando prevede la partecipazione dell'uomo al processo causale, al processo decisionale, quando cioè l'ultima parola spetta all'essere umano. Il che, a ben vedere, non è proprio una soluzione razionale, ma una soluzione etica, una sfida dell'etica lanciata alla razionalità. Da questo punto di vista l'intelligenza artificiale si configura non tanto come una decisione automatica quanto come un non binding opinion, un'opinione della quale il decisore è lasciato arbitro circa l'adozione.
Si potrebbe insomma dire che l'intelligenza artificiale evidenzia plasticamente l'idea che la discriminazione non intenzionale è assimilabile a quella che nell'enciclica Sollicitudo rei socialis di Giovanni Paolo II si chiamava struttura di peccato, ovvero non intenzionalmente si producono discriminazioni affidandosi a meccanismi automatici, che vengono appunto comparati a quelle strutture di peccato che, in enciclica di diversa epoca storica, erano individuati come i vizi e difetti del capitalismo. Stante questa forse fin troppo lunga premessa, tratterò, proprio per elencazione, quei 4-5 punti sui quali secondo me si manifesta l'effetto dell'intelligenza artificiale sul rapporto di lavoro e sul conseguente diritto.
Il primo aspetto è quello che definiamo il problema qualificatorio. L'intelligenza artificiale sfida (e questo è già accaduto nel recente passato con il lavoro agile e con il lavoro tramite piattaforma) l'adozione di subordinazione tipica del diritto del lavoro. Si è proposto da questo punto di vista, già prima dell'avvento dell'intelligenza artificiale, il ricorso ad una nozione ammodernata di subordinazione, che è stata individuata nell'etero organizzazione. Ma l'etero organizzazione, questo è un equivoco in cui spesso si cade, non è tanto un'alternativa alla subordinazione quanto l'adozione di una tecnica rimediale applicata a rapporti Pag. 10che subordinati non sono, con la stessa disciplina o una simile a quella del lavoro subordinato. Fatto sta che il problema della qualificazione del rapporto di lavoro è strettamente correlato a quello della qualificazione del rapporto di lavoro.
La prima sfida al diritto del lavoro è quella del problema qualificatorio: trovare un modo per inquadrare i lavoratori colpiti dall'intelligenza artificiale o alternativo alla subordinazione oppure inerente ad una nozione di subordinazione integrata e ammodernata rispetto al passato. Mi limito a questa brevissima e lapidaria osservazione perché il discorso potrebbe essere troppo lungo, ma sicuramente è il primo aspetto che ha inciso sulla tematica dell'intelligenza artificiale. A questo proposito richiamo la proposta di direttiva europea sul lavoro mediante piattaforme digitali, perché questa proposta, partendo dal presupposto che nove piattaforme digitali su dieci, tra quelle operanti nell'Unione europea, classificano come lavoratori autonomi le persone che vi lavorano, nella consapevolezza del carattere spesso fittizio di questa classificazione, intende promuovere una regolazione del fenomeno che garantisca ai lavoratori la corretta situazione occupazionale, cioè il corretto inquadramento – come subordinati o no – alla luce del loro effettivo rapporto con la piattaforma di lavoro digitale, e consenta loro accesso ai diritti applicabili in materia di lavoro e protezione sociale: il cosiddetto lavoro dignitoso decent work. Rilevo come dato interessante che nell'ambito di questa proposta di direttiva, come anche nell'ambito della direttiva recentemente approvata sulla parità retributiva nel lavoro femminile, si utilizza come strumento di agevolazione all'accesso alla qualificazione di lavoratore subordinato il meccanismo della presunzione legale. Cioè si presume, con una inversione dell'onere della prova, che ci si trova di fronte a un rapporto di lavoro subordinato, quindi destinatario delle tutele previste in materia di intelligenza artificiale, ogni volta che la piattaforma digitale controlli determinati elementi dell'esecuzione del lavoro. Un secondo punto d'impatto è quello che attiene non tanto alla qualificazione del rapporto quanto alla gestione del rapporto di lavoro; è il tema della cosiddetta gestione algoritmica dei rapporti di lavoro laddove sembra scomparire il datore di lavoro sostituito da decisori automatici o comunque da decisori che sono delle macchine. Qui il problema è quello dell'opacità nell'algoritmo e cioè della inaccessibilità da parte del lavoratore e spesso anche degli organismi giudiziari dei contenuti dell'algoritmo che conducono a determinate decisioni. Entra ancora una volta in gioco il tema delle discriminazioni evidentemente. L'antidoto che si sta elaborando – e il nostro Paese lo ha già recepito nell'ambito del lavoro agile, con il cosiddetto «decreto trasparenza» – è quello di adottare l'obbligo di trasparenza e l'obbligo di informazione come regola costitutiva dell'utilizzo degli algoritmi sulla gestione dei rapporti di lavoro. Si reagisce all'opacità dell'algoritmo con un obbligo per il datore di lavoro di informare i lavoratori e le organizzazioni sindacali sulle caratteristiche dell'algoritmo, sui data set, sul modo in cui l'algoritmo è istruito, sulla modalità e sulla logica di funzionamento, in modo che si possa scoprire, entrando dentro l'algoritmo, l'esistenza di meccanismi discriminatori, che altrimenti non sarebbero facilmente individuabili. Questa è la via, ad esempio, seguita dal decreto trasparenza del 2022. Un ulteriore punto di attacco dell'intelligenza artificiale sul rapporto di lavoro è quello della ridefinizione delle mansioni e la loro classificazione. Non è ancora chiaro se ad essere colpite dai processi di mutamento saranno tutte le mansioni o soprattutto alcune, quel che è certo è che degli elementi di mutamento ci saranno sicuramente tra i dirigenti e i decisori. Non è ancora ben chiaro se ci sarà in questo ambito un processo di upgrading o di downgrading. Si può ipotizzare un processo di upgrading quando si ipotizza di qualificare come decisori e dirigenti le persone che hanno il potere di stabilire l'eccezione rispetto alla decisione algoritmica. Sarebbe dirigente o decisore, da questo punto di vista, colui al quale l'ordinamento imputa la capacità di non applicare l'algoritmo, di discostarsi dalla decisione algoritmica. Viceversa qualora questo potere Pag. 11fosse ridotto al minimo se non addirittura eliminato si avrebbe un downgrading o un downsizing del contenuto delle mansioni dirigenziali, con una delega pressoché totale all'intelligenza artificiale.
Concludo con alcune osservazioni finali che tentano tutte di rispondere al tema su come approcciare l'intelligenza artificiale. Una prima alternativa è quella del potenziamento verticale con finalità di controllo politico sociale (è la soluzione seguita ad esempio nei Paesi totalitari, a cominciare dalla Cina). Una seconda soluzione è la regolazione soft pro business, una regolazione non troppo vincolante a favore delle imprese (è il caso degli Stati Uniti d'America). C'è poi la tesi della regolazione hard, che è quella che sta perseguendo l'Unione europea, in cui il lavoratore da oggetto diventa soggetto di informazione grazie ai principi di trasparenza e dignità, ma questa regolazione hard, e concludo, ha anch'essa due sottoversioni: può essere sostanziale se articolata in termini di diritti soggettivi o può essere procedurale se articolata in termini di due diligence. Si ipotizza cioè di imporre un obbligo di due diligence alle imprese per esaminare a priori un'analisi approfondita delle potenzialità lesive della libertà e della dignità e discriminatorie dell'utilizzo dell'intelligenza artificiale. Il punto critico della questione, e chiudo davvero, è che a fronte di ciò non è ad oggi facilmente ipotizzabile che questa proceduralizzazione pro business possa condurre ad una deresponsabilizzazione delle imprese attraverso ad esempio la certificazione della due diligence, perché su questo il diritto del lavoro italiano ed europeo porrebbe sicuramente degli ostacoli.
PRESIDENTE. Do la parola ai deputati che intendano porre domande o formulare osservazioni.
VALENTINA BARZOTTI. Grazie presidente. Ringrazio il professor Tursi per questa disamina molto interessante sull'impatto dell'intelligenza artificiale all'interno del diritto del lavoro.
Ha toccato, a mio avviso, un punto saliente che è quello del bias all'interno dell'algoritmo che può portare poi a condotte discriminatorie, a effetti discriminatori.
Quindi sicuramente questo è un tema che la Commissione deve valutare con molta attenzione perché evidentemente, se non si riesce a controllare come viene determinato l'algoritmo, l'effetto discriminatorio può essere reale ed effettivo, ovviamente creando diversi problemi a carico dei lavoratori e delle lavoratrici.
Ma detto questo, le chiederei professore, nel rinnovarle i ringraziamenti, se ci può mandare una memoria in cui sviluppa un po' di più, perché qui non abbiamo potuto farlo per mancanza di tempo, questo discorso della regolazione soft pro business e della regolazione hard, come invece sta avvenendo in Europa, perché non ho inteso benissimo quello che lei riteneva necessario fare attraverso appunto la due diligence.
PRESIDENTE. Grazie, professor Tursi, auspichiamo dunque che ci mandi una memoria, come richiesto. La ringrazio e dichiaro conclusa l'audizione.
Audizione di Matteo Flora, professore a contratto in Corporate reputation presso l'Università degli studi di Pavia.
PRESIDENTE. Buongiorno. L'ordine del giorno reca nell'ambito dell'indagine conoscitiva sul rapporto tra intelligenza artificiale e mondo del lavoro, con particolare riferimento agli impatti che l'intelligenza artificiale generativa può avere sul mercato del lavoro, l'audizione in videoconferenza di Matteo Flora, professore a contratto in Corporate reputation presso l'Università degli Studi di Pavia.
Ricordo che l'audizione odierna sarà svolta consentendo la partecipazione da remoto, in videoconferenza, dei deputati e degli auditi secondo le modalità stabilite dalla Giunta per il Regolamento. Nel ringraziare il nostro ospite per la disponibilità cedo la parola al professor Flora. Prego professore.
MATTEO FLORA, professore a contratto in Corporate reputation presso l'Università degli Studi di Pavia. (Intervento da remoto)Pag. 12Grazie mille presidente. Onorevoli, grazie dell'opportunità. La mia prospettiva è un po' particolare, sono un soggetto contemporaneamente passivo e attivo dell'AI generativa. Passivo perché le mie società sono impattate grandemente dalle AI generative, attivo perché dall'altra parte insegno a studenti e a grandi aziende come utilizzarle per efficientare. Sono causa del mio male a quanto pare.
Ho depositato una memoria completa, quindi mi concentro solo su alcuni aspetti. Due parole più mi preoccupano nel corso del prossimo paio di anni: skilling e superallineamento. Partiamo dallo skilling. Il Presidente Meloni durante la conferenza stampa di fine anno si diceva – vado a memoria – preoccupata dell'impatto dell'intelligenza artificiale, affermando che ora la rivoluzione è diversa dal momento che è l'intelletto che rischia di essere sostituito.
Sbagliava, non sui concetti, ma sulla formulazione possibilista e futura. Cioè le preoccupazioni non sono prospettiche, le preoccupazioni sono una realtà già in atto. C'è un bel rapporto che si chiama The State of the AI at Work di Asana, dove gli stessi dipendenti delle società rilevavano come negli Stati Uniti il 29 per cento dei compiti lavorativi può già oggi essere sostituito dalla AI. AI Resume builder alla fine dell'anno scorso diceva che il 37 per cento dei leader aziendali negli Stati Uniti ha già sostituito lavoratori e un ulteriore 44 per cento prevede licenziamenti nel 2024 a causa dell'efficienza delle AI. Anche qui, le professionalità maggiormente impattate, lo diceva il professore prima, sono quelle nell'ambito dell'assistenza clienti (customer care), della creazione dei documenti, della ricerca. Non solo si usano per automatizzare mansioni ripetitive, ma quelle generative sostituiscono anche lavori che richiedono competenze specializzate.
È la prima rivoluzione industriale nel corso della storia dell'umanità che abbiamo conosciuto che investe i colletti bianchi, i lavoratori dell'ingegno, le professioni creative. Il vero problema, dal mio punto di vista, è l'emergere di quelli che Stefano Quintarelli, già parlamentare, chiama in modo molto appropriato gli stagisti digitali. Cioè le AI avanzate, ma con tendenza all'errore, che richiedono supervisione; un po' come gli stagisti umani, che però sono definiti stagisti digitali. Ora, qual è il problema degli stagisti digitali? Potrebbero anche essere comodi come forza lavoro illimitata per diventare una potenza mondiale. Il vero dilemma è come facciamo ad acquisire conoscenze? Il mio socio, perdonatemi se abbasso il tono della discussione, Massimo Giacomini, ha una perifrasi bellissima dove dice che impariamo solo in due modi: a calci «nel di dietro» e a facciate. Ora, senza perifrasi, è vero: la nostra capacità di imparare, come società del lavoro, è interamente basata sul fare, sull'idea che nelle professioni entry level io commetto errori e imparo; dalla progressiva correzione di questi errori io divento un professionista. Ora la AI non è ancora in grado di sostituire l'esperienza ma è in grado di sostituire quei ruoli che consentono di sviluppare l'esperienza. L'Accademia è fondamentale, ma sviluppa conoscenza non esperienza. Per quello il reskilling è centrale, non nel generare le competenze tecniche, ma a sviluppare una mentalità e competenze trasversali che ci consentano di lavorare in sintonia con l'AI, di collaborare con l'AI in qualunque lavoro.
Tutto questo che vi ho appena detto vale nel mondo attuale dove le intelligenze artificiali sono ancora molto meno capaci di un essere umano in tanti ambiti, ed è una premessa che è importante tenere a mente perché è solo una condizione transitoria, che durerà pochi mesi, al massimo qualche anno.
Una delle persone più influenti in OpenAI, il capo del superallineamento, si chiama Ilya Sutskever, ha scritto ultimamente una frase che mi ha terrorizzato. Dice: se ritenete l'intelligenza al di sopra di tutte le altre qualità umane vi aspettano dei tempi difficili. Perché? Perché prima dell'emergere di quelle che sono le temute intelligenze artificiali generali, quelle di Terminator, di Matrix, di Dune, c'è un altro scenario vero, quello delle intelligenze sovraumane di settore. E non stiamo parlando di cose distanti; le prime intelligenze Pag. 13artificiali sovraumane sono ipotizzate nel corso di mesi. Che cosa sono? Sono AI in ambiti settoriali specifici che superano di gran lunga le capacità umane.
Settori precisi, medicina, fisica, sintesi di composti chimici o fisici e finanza. È lì che appare il problema di superallineamento; perché? Nell'AI, come forse sapete, l'allineamento si concentra sull'assicurare che le azioni dell'intelligenza artificiale siano in linea con gli obiettivi e le intenzioni umane, dice la definizione. Il superallineamento va oltre, cercando di garantire che, anche operando a livelli superiori di intelligenza e di capacità, le AI rimangano ancorate a questi valori etici e morali di cui parlavate pochi minuti fa.
Scendo un attimo di toni perdonatemi, li porto al mio livello. La cosa che dico ai miei ragazzi dell'Università è: come fa un cane a insegnare al padrone? In questa metafora sfortunatamente non siamo i padroni e non è una sfida che può essere dibattuta su un piano puramente tecnico-scientifico, perché le definizioni in questo caso sono ancorate alle scienze umane, alle scienze sociali, alle scienze politiche. Affrontare il superallineamento richiede un approccio che sia integrato e pratico.
Cosa serve? Quello che manca in questo momento in un proliferare di azioni, di strutture di informazioni è una piattaforma di dialogo tra esperti di intelligenza artificiale e professionisti in campi come etica, filosofia, scienze politiche sociali; una piattaforma unica e non frammentaria per definire una sorta di futuro della Nazione in base a questi cambiamenti. Perché una cosa l'abbiamo capita: non c'è un percorso alla rovescia. Le intelligenze artificiali sono qui per restare, servono forse – uso un termine forse a sproposito – Stati Generali delle AI che, alla luce anche delle recenti normative internazionali – l'AI Act è un passo enorme – ci assicurino un po' di cose. Uno, ci assicurino che le AI rispettino e favoriscano le norme etiche e morali. Dobbiamo capire come adattare il tessuto economico, educativo soprattutto e sociale al cambiamento, capire chi e come monitora e controlla l'AI, quanti fondi e quali abbiamo a disposizione e come usarli per affrontare la più grande rivoluzione industriale che abbiamo mai visto. Soprattutto, c'è una scelta di campo da fare. Cioè vogliamo essere artefici – lo diceva anche prima il professore in realtà, tra le varie possibilità – come Stato Paese, di un cambiamento o soggetti passivi di retroguardia rispetto a un cambiamento che dobbiamo subire? E dobbiamo fare tutto questo con un dialogo aperto e trasparente tra creatori di intelligenza artificiale, utenti, regolatori e pubblico dominio. Tutto qui.
Reskilling, skilling, superallineamento, Stati generali. Non c'è molto altro. Vi lascio una memoria per tutti i dettagli. Ovviamente sono qui per eventuali domande. Molte volte diventa difficile capire dove finisce l'umano e dove inizia l'intelligenza artificiale, magari anche solo in quello che ho scritto o vi ho detto io oggi; capire dove è entrata l'intelligenza artificiale generativa potrebbe essere complesso. Tutto qui, grazie.
PRESIDENTE. Grazie professor Flora. Do la parola ai deputati che intendano porre quesiti o formulare osservazioni.
VALENTINA BARZOTTI. Ringrazio il professor Flora per questo contributo veramente molto interessante. Avrò modo di leggere con attenzione la sua memoria. Rispetto al contributo di oggi tante sarebbero le domande, quindi mi limito soltanto ad una. Rispetto agli Stati Generali che lei auspica, vorrei capire se negli ultimi anni lei ha visto l'Italia come un attore che ha attuato politiche che vanno nella direzione corretta oppure serve un cambio di passo rispetto a queste tematiche, in relazione ad un una serie di interlocuzioni che forse sarebbe necessario fare, anche rispetto al quadro normativo europeo.
MATTEO FLORA, professore a contratto in Corporate reputation presso l'Università degli studi di Pavia (Intervento da remoto). Grazie della domanda. Innanzitutto devo dire la verità: io ho visto molta più preparazione, soprattutto da parte di chi concepisce e le applica le norme, molto più alta di quella che il grande pubblico pensa che Pag. 14sia presente. Senza fare nomi particolari ma anche solo nell'AI Act abbiamo avuto una grande influenza come Italia e con le persone che ci hanno rappresentato e che hanno scritto. Un'influenza che anche nel mondo del business è molto presente; cioè le aziende hanno voglia di fare, voglia di sentirsi coinvolte.
Il problema è sempre quello, è capire qual è l'ottica di riferimento, quella forse è mancata. Cosa vuole fare lo Stato Paese Italia? Ci sono alcuni Paesi che hanno puntato tutto. Mi viene in mente il Giappone che qualche settimana fa ha riferito che la proprietà intellettuale non esiste nel training dei sistemi di intelligenza artificiale. È una scelta controversa, difficile, ma che perlomeno fa capire esattamente non solo a tutto il Paese dove ci si sta muovendo, ma anche e soprattutto agli investitori esteri che possono andare in Giappone (mi dicono che Singapore abbia preso lo stesso abbrivio). La cosa più pericolosa, secondo me, nell'ambito delle mie limitatissime capacità, è non prendere una posizione, è non capire da che parte stiamo. Possiamo essere pro totalmente ai diritti dei lavoratori, contro la sostituzione determinata dalle AI generative, possiamo essere dalla parte del reskilling avanzato (cioè investire per insegnare alle generazioni lavoratrici come approfittare di questa cosa), possiamo addirittura essere liberalizzanti, ma serve una visione condivisa. Questa però, devo dire la verità, non l'ho vista uscire, non da questo Esecutivo, ma in generale dal tessuto politico italiano attuale.
PRESIDENTE. Grazie. Avverto che l'audito ha messo a disposizione della Commissione una documentazione, di cui autorizzo la pubblicazione in calce al resoconto stenografico della seduta odierna (vedi allegato 2).
La ringrazio nuovamente e dichiaro conclusa l'audizione.
Audizione di Giuseppe Attardi, professore ordinario di Informatica presso l'Università degli studi di Pisa.
PRESIDENTE. L'ordine del giorno reca, nell'ambito dell'indagine conoscitiva sul rapporto tra intelligenza artificiale e mondo del lavoro con particolare riferimento agli impatti che l'intelligenza artificiale generativa può avere sul mercato del lavoro, l'audizione in videoconferenza di Giuseppe Attardi, professore ordinario di Informatica presso l'Università degli studi di Pisa.
Ricordo che l'audizione odierna sarà svolta consentendo la partecipazione da remoto, in videoconferenza, dei deputati e degli auditi secondo le modalità stabilite dalla Giunta per il Regolamento.
Nel ringraziare il nostro ospite per la disponibilità, cedo la parola al professor Attardi. Prego professore.
GIUSEPPE ATTARDI, professore ordinario di Informatica presso l'Università degli studi di Pisa. Buongiorno presidente. Ringrazio il presidente per l'invito. Il tema di oggi è ormai diventato un tema all'ordine del giorno e mi ricordo di aver partecipato a un'altra audizione, quattro anni fa, presso la Commissione lavoro del Senato sullo stesso tema.
Andando a guardare quella audizione ho trovato che molte delle cose che anticipavo allora sono ancora valide. Innanzitutto il fatto che l'intelligenza artificiale sia una general purpose technology, cioè una tecnologia che impatta tutti i settori delle attività umane. Oggi è diventato ormai scontato che i language models come ChatGPT possono essere usati in mille modi e in quella audizione avevo proprio citato il GPT 3 – che era uno dei primi che esisteva a quell'epoca – indicando appunto la possibilità di un suo impiego diversificato. Oggi lo vediamo applicato in tantissimi ambiti per svolgere molte funzionalità, ed è quello che è avvenuto.
Rispetto a quattro anni fa una cosa positiva che è successa è stata la nascita di un dottorato nazionale in intelligenza artificiale (finanziato prima dal Ministero dell'Università e Ricerca, adesso dal Ministero della Ricerca) che offre 200 Borse di studio Pag. 15ogni anno ed è adesso finanziato con i fondi del PNRR. Questo è un aspetto su cui puntare, cioè la formazione. Formare nuove persone su questa tecnologia che sta evolvendo. La modalità di sviluppo dell'applicazione mediante l'intelligenza artificiale è completamente diversa dai sistemi informatici precedenti. Questo vuol dire che si possono applicare a settori svariati e ciò da una parte fornisce benefici perché le possibilità e le potenzialità sono notevoli, ma dall'altra rende coloro che dispongono di questa tecnologia più potenti e più influenti nel mondo digitale. Quindi quelle che venivano chiamate le compagnie big-tech che già in quegli anni (già quattro anni fa) erano molto ben presenti nel mondo, hanno aumentato il loro dominio. Due di queste, se vogliamo, hanno addirittura distanziato le altre; OpenAI con Microsoft e Google sono diventate le due principali investitrici nel mondo dell'AI. Quello che dicevo è che bisognava evitare che questa concentrazione procedesse a questo ritmo e bisognava fare in modo che anche l'Italia, anche l'Europa, potessero padroneggiare questa tecnologia per poterla utilizzare al proprio interno. Tra gli aspetti di cui parlavo, riguardo gli impatti sull'economia, segnalavo appunto quello che è il tema che penso vi interessi, ovvero la questione dell'impatto sul mondo del lavoro. Citavo un affermazione del premio Nobel Joseph Stiglitz, il quale diceva che ci sarà una distruzione di posti di lavoro e che, anche se in genere le tecnologie producono posti di lavoro, è difficile pensare che quelli che lavorano in un certo campo diventino rapidamente esperti e competenti nel settore della tecnologia. Questo rischia di produrre effetti che hanno una durata nel tempo rilevante e non facilmente aggiustabili.
In realtà quello che è successo è che il fenomeno si è evoluto con una velocità molto superiore a quello che prevedevamo. Non ha colpito soltanto certi tipi di lavoro di basso livello, ma sta colpendo anche lavori che necessitano di discrete conoscenze. Il fatto abbastanza sorprendente è stato l'annuncio di qualche giorno fa che Google sta licenziando 30 mila persone nel settore del marketing, dell'advertising, perché possono essere sostituite da mezzi che fanno automaticamente la scelta degli annunci e la trattazione con i clienti.
Quindi, anche nel mondo tecnologico questo sta avvenendo e tutto ciò fa temere che i posti di lavoro che si creeranno saranno molti di meno di quello che ci si potrebbe aspettare. Addirittura c'è qualcuno che sostiene che non serviranno nemmeno più persone esperte in tecnologia, perché si lascia fare tutto all'AI.
In ogni caso c'è un accordo, quanto meno generico, sul fatto che la tecnologia potrà produrre effetti sulla produttività, quindi aumenterà la produttività.
Questo però è un fenomeno che durerà un certo tempo, perché ci vuole un adeguamento perché questa tecnologia diventi acquisita e la gente impari ad usarla. È soprattutto questo periodo però che è cruciale, perché chi sarà il primo a dotarsi e a sfruttare meglio questa tecnologia ne avrà benefici, chi invece non la sfrutta o rimane indietro rischia di perdere il lavoro, venendo subissato da altri.
C'è addirittura chi sostiene, come Cathie Wood, che ci sarà un aumento di produttività di quattro volte (questo è abbastanza folle, mi sembra). Però va tenuto presente che questo fenomeno è sicuramente in corso ed eventualmente bisognerà fare in modo di poterlo sfruttare. Come dicevo prima, l'Europa è rimasto un po' indietro sulla tecnologia perché si è concentrata di più su questioni di regolamentazione, cercando di evitare che la tecnologia venga impiegata senza particolari controlli. Il che è giusto, però molto spesso i controlli su ciascun settore esistono già. In medicina ci sono già i controlli sull'impiego di apparecchiature e dispositivi medici. Quindi, va bene ragionare sulle tecnologie, ma anche impegnarsi nello sviluppo. Mentre le grandi aziende stanno aumentando il loro potere, c'è stata una specie di reazione. Un esempio interessante di questo è stato lo sciopero degli attori e degli sceneggiatori di Hollywood, l'Actor's deal, i quali, per la prima volta, in un paese in cui le Union sono particolarmente forti, hanno dimostrato di avere un potere contrattuale, dimostrando che i lavoratori unendosi possono in realtà ottenerePag. 16 delle condizioni migliori, sia in relazione alla possibilità di avere una quota dei profitti dell'attività, dei proventi dello streaming, che sta diventando il settore più remunerativo nel campo dello spettacolo, sia sulle modalità di utilizzo della tecnologia. Ciò al fine di fare in modo che ci sia un fondo di solidarietà, che compensi finanziariamente i periodi di inattività con i fondi costituiti con i proventi delle attività di questo settore.
Questa è una direzione su cui si può riflettere e ragionare. Immagino che sociologi ed economisti ne possano parlare più di quanto possa fare io, da esperto. Però lo segnalo perché secondo me è una strada da percorrere. Si tratta di fare in modo che ai lavoratori sia data la possibilità di avere un ruolo maggiore e venga considerata la dignità del loro lavoro. In particolare, così come gli attori hanno ottenuto una percentuale sulle entrate dello streaming, si potrebbe anche pensare una riforma della proprietà intellettuale in modo tale che chiunque operi, faccia un lavoro di conoscenza, partecipi degli utili e dei benefici della propria attività. E poi, nel caso estremo in cui il lavoro si perda, credo che sia inevitabile cominciare a ragionare anche sul cosiddetto reddito di base universale per le persone che non troveranno lavoro adeguato.
Va considerata anche la questione dell'utilizzo dei dati da parte delle piattaforme. Oggi le piattaforme utilizzano i dati che vengono prodotti liberamente e messi a disposizione in rete dagli utenti mediante blog, o anche semplicemente con l'interazione, che realizzano dei servizi che poi vengono chiusi. Sono servizi che vengono erogati all'interno delle piattaforme e non comunicano con altri. Ora c'è una direttiva, il digital service act, che impone l'apertura di tali servizi, consentendo l'interoperabilità. Rimane il problema dei dati e della possibilità del loro riutilizzo da parte degli stessi utenti. La possibilità – e qui lancio l'idea che non è originale ma è studiata anche da altri colleghi negli Stati Uniti – è quella di promuovere delle cooperative di dati. Ossia gli utenti si riuniscono in cooperative e attribuiscono la titolarità dei propri dati (cioè quello che loro producono) a questa cooperativa e sarà questa cooperativa che poi negozia con le piattaforme sull'utilizzo di questi dati, facendo in modo di distribuire ai propri membri la remunerazione che deriva dall'impiego di tali dati. In particolare, sarebbe bene che, ritornando alla questione dell'interoperabilità, sia possibile per queste cooperative stesse fare a loro volta dei servizi digitali, usando i dati che gli utenti contribuiscono a fornire alle stesse piattaforme, a patto che siano, come si diceva prima, servizi distribuiti e basati su protocolli aperti e liberi per l'interscambio.
Ciò sarebbe importantissimo perché consentirebbe di smantellare questi servizi chiusi (oggi chi usa WhatsApp non comunica con uno che usa Telegram); con la interoperabilità e lo scambio di dati in questa forma, attraverso le cooperative, questo diventerebbe un sistema più libero, più aperto e a disposizione di tutti.
Per concludere volevo fare un'ultima osservazione. Nel mondo digitale siamo stati abituati ad utilizzare i servizi digitali lavorando direttamente, cioè con interfacce grafiche. Le interfacce grafiche ci hanno consentito di fare direttamente moltissime operazioni e quindi liberarci da certi intermediari. Tuttavia questo ha reso complicate certe attività, per cui molto spesso ci vengono scaricati, da parte delle aziende, dei lavori che vengono normalmente fatti da altri.
Pensiamo al cassiere di una banca o al cassiere del supermercato, tocca fare a noi il lavoro di cassiere per fare la scansione dei prodotti, mettere la carta di credito, e così via.
Tutto questo va a beneficio delle aziende e invece a detrimento degli utenti che si trovano molto spesso a doversi orientare nel compiere operazioni che non sanno fare o non fanno molto volentieri; però le aziende scaricano i costi sugli utenti.
La mia ipotesi è che con l'intelligenza artificiale potremo ribaltare queste situazioni, ossia fare in modo che gli utenti possano svolgere le attività che a loro interessano mediante degli assistenti intelligenti, senza dover fare loro le tante operazioniPag. 17 che spesso non si ricordano. Per esempio, se voglio vendere un prodotto su un servizio online devo collegarmi al prodotto, mandare la foto, mettermi d'accordo con il cliente, mettermi d'accordo con lo spedizioniere, pagare lo spedizioniere sul suo sito, poi fare la spedizione, procedere al pagamento; tutta una serie di passaggi che si possono fare ma che fanno perdere un sacco di tempo, mancando l'integrazione.
Adesso, con l'intelligenza artificiale si potrebbero fare servizi integrati. Quindi dico all'intelligenza artificiale semplicemente di vendere un questo cappotto al migliore offerente, e l'intelligenza artificiale costruisce il servizio; lo costruisce direttamente mettendo insieme tutti i pezzi che ci vogliono. Conosce me, dove vivo, chi sono, qual è il mio conto corrente, come pagare. Si mette in contatto con lo spedizioniere, produce le informazioni che servono per la spedizione, per ricevere il pagamento e tutto quanto in maniera del tutto automatica. Con l'intelligenza artificiale moderna si possono fare servizi end to end. Cioè io dico qual è il risultato finale e non devo dirgli tutti i passi che servono per ottenere quel passaggio. Faccio un servizio end to end, cioè dico quello che voglio e tutti i pezzi intermedi vengono distribuiti automaticamente.
Questa possibilità sta diventando una realtà; proprio in questi giorni OpenAI sta mettendo a disposizione sul suo sito il servizio GPT Store, ossia la possibilità di costruire delle applicazioni fatte con l'intelligenza artificiale che vengono messe a disposizione su uno store, tipo l'Apple store dove ci sono le applicazioni che si usano sui cellulari. Queste applicazioni possono essere elaborate con l'intelligenza artificiale, senza dover fare programmazione. Una volta che questa applicazione è in esecuzione altri la possono usare.
Naturalmente questo produrrebbe quello che dicevo poco fa, cioè la possibilità di costruire servizi integrati che automaticamente integrino diverse funzionalità semplificando la vita o riducendo la difficoltà e la fatica che ciascuno di noi deve fare ogni volta che deve andare verso un servizio che usa una volta l'anno, dimenticando come funziona. Questa è una potenzialità enorme perché, per esempio, tutta la pubblica amministrazione potrebbe beneficiare della costruzione di servizi integrati che oggi non esistono. C'è stato uno sforzo nel passato di usare i cosiddetti web-services, cioè di integrare i servizi, però tutto questo era molto faticoso e richiedeva uno sforzo manuale di ingegnerizzazione dei servizi al fine di integrarli tra di loro. Con l'intelligenza artificiale questa potrebbe diventare una procedura automatizzata, messa a disposizione di tutti. Quindi anche per le pubbliche amministrazioni ci sarebbe la possibilità di migliorare.
Tutto ciò significa che d'ora in poi praticamente si potrebbe ricominciare a costruire i servizi digitali; quelli che abbiamo visto fino a oggi resteranno ancora lì, ma ne vedremo di migliori che avranno caratteristiche diverse. Invece di essere gestiti mediante un mouse, semplicemente indichiamo qual è il nostro scopo, il nostro obiettivo e l'intelligenza artificiale stabilisce come svolgerlo per conto nostro. Questo vuol dire che tutta una nuova serie di servizi verranno lanciati.
Questo è importante perché nuove aziende che si occupano di questo possono nascere, quelli che finora non hanno avuto l'opportunità di entrare in questi mercati potranno entrare e potranno competere. È importantissimo poter avere uno spazio in questo mercato, soprattutto per l'Europa, perché mentre fino ad ora in gran parte questi servizi digitali vengono fatti dalle piattaforme americane principalmente, avere dei campioni, delle aziende europee che mettano in piedi delle piattaforme con queste tipologie di servizi consentirebbe di recuperare posti di lavoro, recuperare spazi economici e soprattutto restare all'avanguardia nella tecnologia.
Quindi, voglio concludere con questo messaggio positivo nei confronti dell'intelligenza artificiale. Grazie dell'attenzione. Ho anche inviato una breve nota recante queste riflessioni.
PRESIDENTE. Grazie a lei. Do la parola ai deputati che intendano porre domande o formulare osservazioni.
Pag. 18 VALENTINA BARZOTTI. Io volevo ringraziare il professore; leggeremo la sua memoria.
Francamente penso che abbia toccato due punti molto importanti come l'impatto sul mercato del lavoro e il rischio che molti lavori non particolarmente specializzati possano essere persi. Rispetto a questo, le chiedo se può illustrarci, anche con una memoria di integrazione successiva, possibili procedure di reskilling e possibili soluzioni per evitare l'emarginazione di queste persone. Fermo restando che il professore ha già anticipato che si può comunque parlare di reddito di base universale, che è sicuramente una strada che dobbiamo iniziare a percorrere.
PRESIDENTE. Do la parola al nostro audito per una breve replica.
GIUSEPPE ATTARDI, professore ordinario di Informatica presso l'Università di Pisa. Il problema, secondo me, è enorme, quindi è giustissimo impegnarsi in tutte le direzioni. Io ne ho indicate alcune, che sono, in primo luogo, la formazione; in Italia abbiamo cominciato dal livello più alto, cioè il dottorato. Naturalmente questa formazione va diffusa anche a livello inferiore, per esempio la formazione in informatica nelle scuole è un'altra attività, Un altro punto da affrontare. Poi ovviamente il reddito di cittadinanza o il reddito di base sarà comunque necessario, perché ci sarà un aumento della produttività e su questo tutti gli economisti concordano.
Cosa succede quando c'è un aumento di produttività in economia? Allora, da una parte, si dice di aumentare la produzione, ma la produzione non può aumentare all'infinito. Quindi questo, secondo me, vuol dire semplicemente che le aziende ridurranno il personale necessario perché produrranno lo stesso, o poco di più, con molto meno forza lavoro.
A questo punto ci saranno due possibilità: o la riduzione della mano d'opera o la riduzione dell'orario, che è una possibilità. Invece di lavorare sette ore e mezzo al giorno se ne lavora sei, oppure quattro giorni anziché cinque; e questa è più altamente auspicabile, anche perché nel giorno libero le persone potrebbero dedicarlo a formarsi, a studiare, a prepararsi per le nuove attività.
Oppure vi è l'altra eventualità, che invece temo sia quella più probabile, ovvero la riduzione dei posti di lavoro. Quindi, le aziende che hanno l'obiettivo di fare massimi profitti decidono di ridurre il personale e continuare a produrre quanto prima e ad un minor costo.
Questa è la cosa più ovvia e scontata che potrà succedere e quindi bisogna prepararsi a questo. Per scongiurare questi rischi le strade sono quelle di prepararsi ad adottare queste tecnologie e non lasciare che siano soltanto gli altri ad usarle. Imparare ad usarle il meglio possibile.
PRESIDENTE. Avverto che l'audito ha messo a disposizione della Commissione una documentazione, di cui autorizzo la pubblicazione in calce al resoconto stenografico della seduta odierna (vedi allegato 3).
La ringrazio professore e dichiaro conclusa l'audizione.
La seduta termina alle 14.55.
Pag. 19ALLEGATO 1
ALLEGATO 2
ALLEGATO 3