Camera dei deputati - Legislatura - Dossier di documentazione (Versione per stampa) |
|
---|---|
Autore: | Servizio Studi - Dipartimento Trasporti |
Titolo: | Intelligenza artificiale, dati e big data: profili tecnici e sviluppi normativi |
Serie: | Documentazione e ricerche Numero: 164 |
Data: | 25/05/2021 |
Organi della Camera: | IX Trasporti |
|
Camera dei deputati |
XVIII LEGISLATURA |
|
|
|
Documentazione e ricerche
|
Intelligenza artificiale, dati e big data: profili tecnici e sviluppi normativi
|
|
|
|
|
|
|
|
n. 164 |
|
|
|
25 maggio 2021 |
Servizio responsabile: |
Servizio Studi – Dipartimento Trasporti
( 066760-2614 – * st_trasporti@camera.it
@CD_trasporti
|
|
|
|
La documentazione dei servizi e degli uffici della Camera è destinata alle esigenze di documentazione interna per l'attività degli organi parlamentari e dei parlamentari. La Camera dei deputati declina ogni responsabilità per la loro eventuale utilizzazione o riproduzione per fini non consentiti dalla legge. I contenuti originali possono essere riprodotti, nel rispetto della legge, a condizione che sia citata la fonte.
|
File:
TR0229.docx
|
INDICE
Sezione I- Intelligenza artificiale
1. Premessa: l’innovazione tecnologica e il ruolo del Parlamento
2. Profilo tecnico dell’intelligenza artificiale
§
2.3 Gli algoritmi: la ricetta dell’intelligenza artificiale
§
2.4 Campi di applicazione dell’IA
3. Profili normativi: principali orientamenti in ambito sovranazionale
§
3.1 I processi di regolamentazione a livello mondiale
4. La disciplina a livello nazionale e la situazione italiana
Focus: l’avanzamento tecnologico nel nostro Paese
Sezione II –Disciplina dei dati
1. I dati: il carburante dell’intelligenza artificiale
§
5.1 Le caratteristiche del dato
§
5.2 Il Regolamento 2016/679/UE (GDPR) e la Direttiva 2016/680/UE: la protezione dei dati personali
§
5.5 Sviluppi futuri: la direzione seguita dall’Unione europea
Come risulta dal Documento conclusivo dell’indagine conoscitiva “sulle nuove tecnologie della comunicazione con particolare riguardo alla transizione verso il 5G e alla gestione dei big data”, approvato dalla IX Commissione della Camera dei deputati il 9 luglio 2020, negli ultimi anni si è verificata una straordinaria accelerazione delle trasformazioni economiche e sociali derivanti dall’avvento di un ventaglio di nuove tecnologie. Si tratta di un mosaico che si compone di infrastrutture (la rete a banda ultralarga e la rete fisica per la realizzazione del 5G), fattori abilitanti complessi (come il 5G) e fenomeni come l’intelligenza artificiale, il cloud, l’edge computing, che combinandosi tra loro (e ad esempio applicandosi alle evoluzioni della robotica, non solo industriale) stanno producendo, in tempi estremamente rapidi, cambiamenti radicali nella nostra realtà. Questo insieme di tecnologie, che in passato avevano avuto alterne vicende, proprio in questi anni, contemporaneamente ed indipendentemente le une dalle altre, sono giunte ad elevato livello di maturazione. Tra queste vanno ricordati, da un lato, la banda larga mobile, dall’altro, le nuove possibilità di archiviare, gestire, estrarre valore dall’enorme produzione di dati che le reti, i sistemi, gli esseri umani e, da ultimo, gli oggetti stanno generando tramite strumenti di intelligenza artificiale.
L’interdipendenza di questi fenomeni sta costruendo nuovi paradigmi giuridici e tecnologici. Ciò ha riflessi economici (in ciascuno dei paesi del G7 almeno il 70 per cento del PIL dipende da beni intangibili fondati sull’uso dell’informazione [1] ), antropologici (cambia la percezione dell’uomo e del suo contesto), culturali (le competenze e la capacità richieste per orientarsi in questa realtà e la stessa concezione della realtà, sono soggette a cambiamento) e sociali (si pongono problemi nuovi nell’ambito dei rapporti sociali e nuove forme di disuguaglianza).
Di fronte ai riflessi di una trasformazione così radicale e sostanzialmente trasversale le istituzioni politiche sia a livello internazionale, sia a livello europeo e nazionale si sono adoperate per svolgere non solo attività di approfondimento ma anche per chiarire e regolamentare progressivamente questo impetuoso processo di trasformazione (si veda in particolare il capitolo 3).
Anche il Parlamento non è estraneo a questa attività conoscitiva e di orientamento.
In particolare all’inizio della legislatura, il Comitato di vigilanza sulla documentazione, ha avviato un’attività conoscitiva sulle tematiche dell’intelligenza artificiale coinvolgendo i principali esperti nazionali e internazionali ed i principali soggetti imprenditoriali che svolgono attività di ricerca e sviluppo sul settore.
Come anticipato, la IX Commissione della Camera dei deputati, tra le molteplici iniziative riguardanti i vari profili concernenti la trasformazione digitale del Paese, ha svolto un’approfondita indagine conoscitiva sulle nuove tecnologie della comunicazione con particolare riguardo alla transizione verso il 5G e alla gestione dei big data e ha approfondito il pacchetto europeo avente ad oggetto la comunicazione COM 2020/65, “Libro bianco sull'intelligenza artificiale - Un approccio europeo all'eccellenza e alla fiducia”, la Comunicazione COM 2020/66, “Una strategia europea per i dati” e la Comunicazione (COM 2020/67) Plasmare il futuro digitale dell'Europa. Il Senato della Repubblica sta svolgendo un’indagine conoscitiva avente ad oggetto il tema dell’Intelligenza artificiale. Inoltre membri della Camera dei deputati sono stati relatori di importanti documenti in sede di Consiglio d’Europa (in particolare con riferimento alla Raccomandazione 2181 e Risoluzione 2341: “Il bisogno di una governance democratica per l’intelligenza artificiale”).
La tematica del digitale presenta, come detto, una molteplicità di aspetti rilevanti che, solo combinandosi adeguatamente, possono assicurare quell’aumento dell’efficienza e dell’efficacia nella gestione dell’informazione che, nelle società più avanzate rappresenta la chiave per aumentare il benessere sociale ed economico. Alcuni aspetti sono stati già approfonditi in sede parlamentare con particolare riguardo ai profili infrastrutturali e tecnologici riguardanti le comunicazioni fisse (la realizzazione della rete in fibra ottica, presupposto per la realizzazione della Gigabit society dell’Unione europea), e mobili (le caratteristiche delle reti 5G).
Con il presente documento si intende dare un quadro unitario ed aperto che, dopo una breve introduzione volta a fornire alcuni elementi di inquadramento generale, contribuisca a ricostruire le iniziative assunte ai vari livelli istituzionali aventi ad oggetto l’intelligenza artificiale nelle sue componenti essenziali (algoritmi, potenza di calcolo, interconnessione), dando anche conto della posizione italiana e concentrandosi poi, nella seconda sezione, sull’elemento essenziale attraverso il quale l’intelligenza artificiale può dispiegare pienamente le sue potenzialità, e rispetto al quale si è concentrata la normazione, essenzialmente, ma non esclusivamente europea: i dati, in particolare intesi nel loro insieme interconnesso, i cosiddetti big data.
In ragione di ciò la seconda sezione è quindi diretta a fornire un quadro d’insieme relativo alla disciplina vigente delle modalità di trattamento dei dati personali e non personali, al fine di valutare in che modo tale disciplina può influire sulla possibilità di trarre valore dalle informazioni. A questo proposito, da un lato, si segnala che la normativa europea sulla protezione dei dati personali rappresenta senza dubbio un punto di arrivo di un lungo processo di elaborazione giuridica che, con il 2016/679/UE (GDPR) e la Direttiva 2016/680/UE, ha raggiunto un livello di maturità tali da rendere queste disposizioni il riferimento globale al quale si sono dovuti conformare sostanzialmente tutti gli operatori dell’innovazione digitale (e ciò quindi è particolarmente rilevante ai nostri fini, posto che i principali utilizzatori e beneficiari dell’intelligenza artificiale, sono al momento proprio grandi società private con sede fuori dall’Unione europea). Dall’altro, con riferimento invece ai dati non personali, l’iniziativa normativa europea realizzata con il Regolamento (UE) 2018/1807, rappresenta un utile riferimento rispetto a un mondo che, con il crescere delle comunicazioni tra macchine connesse, è destinato, quanto meno da un punto di vista numerico, a soverchiare rapidamente i dati personali. Tuttavia dall’esame emerge anche l’ampia area nella quale dati personali e non personali sono inestricabilmente connessi ponendo interrogativi riguardo alle modalità del loro trattamento ed indicando che questo processo sia al momento solo all’inizio pur con alcune linee di tendenza ben delineate. Posto che i limiti al trattamento dei dati sono sostanzialmente diretti a proteggere i medesimi valori, sia che si tratti di dati trattati da persone che da macchine, la capacità di estrarre valore dai dati e i limiti entro i quali ciò deve essere consentito comportano anche l’esigenza di tenere conto della finalità alla quale è diretto l’utilizzo di tali dati.
L’intelligenza artificiale è uno strumento potente che, moltiplicando la capacità di analisi, è neutrale quanto alle finalità verso le quali chi la utilizza si orienta. Di qui l’impegno assunto in più sedi, ivi compresa quella europea per un approccio etico all’intelligenza artificiale e, conseguentemente, all’utilizzo dei dati. Anche dell’approccio etico si darà brevemente conto nel documento.
L’intelligenza artificiale è tutt’oggi una nozione in divenire, che risente dello sviluppo tecnologico e che viene utilizzata comunemente per descrivere fenomeni anche molto diversi. Esiste tuttavia un accordo generale su quelli che sono i componenti fondamentali della stessa [2] :
1) dati;
2) algoritmi;
3) potenza di calcolo [3] .
Semplificando si potrebbe dire che l’intelligenza artificiale si connota essenzialmente per la capacità della macchina di compiere, sulla base di dati e algoritmi, operazioni specifiche, anche molto complesse, per le quali non è espressamente programmata, nonché di adeguare adattivamente la sua attività sulla base di meccanismi di autoapprendimento, che tengano conto dei dati di varia natura che la stessa macchina acquisisce interagendo con la realtà esterna [4] .
L’intelligenza artificiale agisce quindi sulla base di input costituiti dai dati immessi nel sistema. Per l’ottenimento dei risultati, sono necessari algoritmi processati da macchine calcolatrici programmate appositamente per lo svolgimento di mansioni specifiche (narrow AI) o generiche (general AI). Come emerge dallo studio dello STOA del Parlamento europeo “Artificial intelligence: How does it work, why does it matter, and what can we do about it?” [5] , lo sviluppo dell’intelligenza artificiale è avvenuto per passaggi successivi [6] legati non solo al miglioramento degli hardware, con potenze di calcolo via via più grandi, ma anche attraverso la soluzione dei problemi che le varie "generazioni" di intelligenza artificiale si sono trovate ad affrontare e che hanno visto momenti di progresso accompagnati da battute d'arresto che hanno portato, nell'attuale stato di avanzamento tecnologico, a un consolidamento dell'intelligenza artificiale come paradigma per un solido sviluppo del futuro.
In questi ultimi anni la combinazione di tre fattori essenziali ha aperto la strada ad un rapidissimo progresso nel campo dell'intelligenza artificiale.
In primo luogo l'aumento esponenziale della potenza di calcolo ha costituito il presupposto per costruire macchine sufficientemente potenti da effettuare le operazioni necessarie per sviluppare l'intelligenza artificiale. In secondo luogo, altrettanto determinante, è stata la presenza e la disponibilità, a costi irrisori, di enormi quantità di dati (i cosiddetti big data) classificati in maniera più o meno raffinata che costituiscono il necessario "carburante" per sviluppare l'intelligenza artificiale. La presenza di enormi quantità di dati (mai disponibili in tal numero in tutta la storia dell’umanità [7] ) è a sua volta la base su cui si innesta lo sviluppo progressivo degli algoritmi, con particolare riferimento a quelli volti ad “addestrare” le macchine, che rappresentano la chiave creativa in grado di consentire di trarre valore dai dati stessi. Il terzo aspetto, più strettamente tecnologico, è legato al recupero delle cosiddette reti neurali che, pur essendo state oggetto di studio e ricerca fin dagli anni Quaranta, non erano state fino a tempi recentissimi utilizzate in maniera efficace.
Le tecnologie di intelligenza artificiale al momento impiegate su larga scala sono sistemi riproduttivi dei risultati derivanti dalle nostre azioni intelligenti che possiamo definire “deboli” (narrow AI), che, registrando il risultato derivante dall’attività umana, cercano di riprodurre in vasta scala i comportamenti umani raccolti. Per funzionare, questi sistemi necessitano di set di dati vasti e ben ordinati. Tuttavia rispetto alla mera analisi statistica l’intelligenza artificiale è in grado non solo di descrivere un fenomeno ma anche di fornire delle risposte predittive, ossia di trarre dai dati disponibili, attraverso processi che non sono integralmente organizzati preventivamente, nuove conoscenze.
Esiste tuttavia un altro tipo di intelligenza artificiale, definita come produttiva o forte (general AI). Queste tecnologie sono in via di lento avanzamento: il loro obiettivo sarebbe quello di emulare i nessi causali del ragionamento umano, in modo da tale da essere in grado di produrre autonomamente risultati mediante meccanismi decisionali simili a quelli di un individuo, in termini appunto generali. A tal proposito, tuttavia, la scienza computeristica appare abbastanza indietro [8] . Uno dei problemi su cui attualmente si concentra l’attività scientifica, con un certo livello di successo, è quello di interpretazione del linguaggio naturale che è obiettivamente l’elemento predominante nell’ambito dell’utilizzo dati (e soprattutto dei big data). In tale settore i limiti ancora esistenti per lo sviluppo di un’intelligenza artificiale forte sono ben evidenti: mentre infatti sotto il profilo della corretta interpretazione della struttura grammaticale e sintattica, l’intelligenza artificiale ha raggiunto un livello avanzato, esiste ancora un ritardo nell’interpretazione del livello semantico (ossia del significato) di quanto risulta nel linguaggio naturale. Questo passaggio è fondamentale per affrontare anche i successivi livelli più complessi di analisi quali l’analisi di contesto (come ad esempio la maggior parte delle formulazioni ironiche o paradossali o, più semplicemente il collegamento tra diverse frasi tra di loro in modo da coglierne il senso complessivo) e l’utilizzo di registri di comunicazione verbali incidenti sul significato (come il tono di voce, le inflessioni dialettali, e tutti quelle espressioni verbali che richiedono, per la loro comprensione e riproduzione, la “conoscenza del mondo”) che oggi sono fuori portata per le macchine [9] . Ciò chiarito, si può comunque sottolineare come si stia vivendo un progresso rapido e profondamente pervasivo che -già oggi- vede strumenti di intelligenza artificiale ampiamente utilizzati in moltissimi campi e che, cosa ancora più rilevante, ha aperto nuove strade verso le quali si stanno indirizzando, in tutte le loro declinazioni produttive e non, i Paesi più avanzati sia come produttori che come utilizzatori/adattatori di strumenti di IA.
Con riferimento agli impieghi delle tecnologie di intelligenza artificiale occorre necessario tenere conto del fatto che si tratta di strumenti di intelligenza artificiale “debole”; per l’altro ramo dell’intelligenza artificiale, al momento la ricerca sembra inseguire una svolta tecnica per la riproduzione dei nessi causali tipici del ragionamento umano, da applicare su larga scala alle macchine calcolatrici.
Secondo il documento dello STOA del Parlamento europeo “Artificial intelligence: How does it work, why does it matter, and what can we do about it?” l’apprendimento automatico (il c.d. machine learning) è sostanzialmente l’elemento caratterizzante della seconda generazione dei sistemi di intelligenza artificiale (a partire dagli anni 2000).
A differenza dei sistemi esperti, in cui ogni evoluzione del sistema sulla base delle nuove conoscenze non può che comportare una modifica della codificazione degli algoritmi, i meccanismi di machine learning si caratterizzano per il fatto che l’algoritmo migliora apprendendo dai dati [10] . Quest’ultimo, in base agli obiettivi e alla capacità algoritmica, si differenzia in:
§
supervisionato;
§
non supervisionato;
§ per rinforzo;
L’apprendimento supervisionato è basato sulla fornitura alla macchina di informazioni ed elementi conoscitivi codificati. L’organizzazione di tali elementi costituisce un database che il computer è in grado di utilizzare al fine di risolvere i problemi che le vengono sottoposti. L’utilizzo delle basi informative presenti nel sistema e l'analisi delle stesse permettono l’emissione dell’output. Questo tipo di apprendimento necessita la predisposizione di criteri di scelta che rendano la macchina in grado di scegliere l'opzione migliore per rispondere all'input di domanda fornito; al contempo, per garantire una qualità ottimale del risultato è richiesta una qualità dei dati e degli algoritmi adeguata. Il meccanismo di apprendimento è induttivo: gli algoritmi scansionano una serie di problem specifici (già in memoria) per ottenere una soluzione idonea ad un problema di tipo generale (appunto secondo un processo induttivo). La principale applicazione di questa tipologia di machine learning è l'identificazione vocale.
L'apprendimento non supervisionato agisce senza una codificazione delle informazioni ex ante. In tal caso il computer utilizza i dati senza avere basi predeterminate che gli consentano di individuare anticipatamente una congerie di risultati possibili. Gli output derivano da processi con un grado di autonomia decisamente maggiore per la macchina e quindi un grado maggiore di complessità.
Nell'apprendimento per rinforzo, le scelte vengono compiute sulla base di informazioni rilevate anche nell'ambiente circostante (attraverso strumenti di riconoscimento della realtà quali potrebbero essere sensori, telecamere, rilevatori di suono ecc.), con la macchina che acquisisce progressivamente competenze e risolve i problemi attraverso un meccanismo di autovalutazione premiale (detto rinforzo) dei risultati delle scelte effettuate. A seconda della valutazione delle decisioni prese in base al parametro di riferimento, il computer è in grado di adattarsi a determinati input modificando autonomamente l'algoritmo decisorio [11] .
Forme di apprendimento per rinforzo sono alla base della guida automatica ed autonoma.
L’elemento che ha tuttavia assicurato recentemente lo straordinario ampliamento delle capacità dell’intelligenza artificiale è stato lo sviluppo del deep learning, che rappresenta un meccanismo che consente un apprendimento rapido delle macchine avvalendosi delle cosiddette reti neurali utilizzando in maniera originale la potenza di calcolo offerta dalle GPU (Graphical Processing Unit) ed ha consentito in tempi piuttosto rapidi, di creare reti a più strati corrispondenti a diversi livelli di astrazione [12] .
Le reti neurali sono sostanzialmente dei modelli di calcolo, ma che si ispirano al funzionamento delle reti neurali degli animali e degli esseri umani. Gli elementi conoscitivi sono derivati dalle interconnessioni di informazioni elaborate in parallelo tra i diversi “strati” che costituiscono la rete [13] .
L’avanzamento di tali tecniche è in costante divenire, grazie allo sviluppo delle capacità di comprensione dei computer arrivato a livelli inimmaginabili solo pochi anni fa [14] . I primi grandi successi del deep learning sono davvero molto recenti: dal 2012 in materia di riconoscimento delle immagini e solo nel 2016 per quanto riguarda la traduzione automatica neuronale [15] .
Ogni sistema di intelligenza artificiale ha un ciclo vitale, riassumibile in quattro fasi:
a) pianificazione e raccolta dei dati: come la costruzione di un edificio, tali apparati hanno bisogno di una complessa fase di progettazione;
b) verifica e validazione;
c) sviluppo;
d) utilizzo e monitoraggio.
Gli attori dell’intelligenza artificiale sono tutti coloro che giocano un ruolo nel ciclo vitale di ciascun sistema. Questi costituiscono un semplice sottoinsieme dei c.d. stakeholders, ovvero tutti i soggetti (persone fisiche o organizzazioni) coinvolti o destinatari delle operazioni compiute [16] .
L’aspetto tecnico più caratteristico dell’intelligenza artificiale è rappresentato dagli algoritmi [17] . L’algoritmo è semplicemente una procedura diretta a risolvere un determinato problema applicando un certo numero di operazioni elementari collegate tra loro secondo uno specifico ordine. La costruzione e i contenuti degli algoritmi sono collegati alla tipologia di problema che si intende risolvere e possono anche essere attività estremamente complesse, tuttavia gli algoritmi presentano alcune caratteristiche come ad esempio la non riducibilità delle singole operazioni o la finitezza dell’algoritmo stesso (ossia il fatto che sia costituito da un numero finito di istruzioni, che comunque porta a una conclusione in una certa unità di tempo) che rendono piuttosto intuitiva la loro natura.
Al di là del concetto e della essenziale libertà nella costruzione e nell’utilizzo degli stessi per varie finalità (economiche, statistiche, gestionali, ecc.) l’utilizzo di strumenti di intelligenza artificiale ha portato a far emergere alcuni principi (soprattutto sul piano giurisprudenziale) relativi alla legittimità dell’utilizzo di questi strumenti, ad esempio nell’attività amministrativa e giudiziaria.
Con la sentenza n. 8472/2019 il Consiglio di Stato ha da ultimo fissato alcuni principi che circoscrivono gli spazi di intervento degli e sugli algoritmi.
In primo luogo è stato riconosciuto il contributo che tali strumenti possono fornire all’efficienza della pubblica amministrazione (conformemente ai principi dell’articolo 97 della Costituzione) riconoscendone quindi in linea di principio l’utilizzabilità.
Sulla base di questo assunto, applicando i principi del GDPR - secondo i quali da un lato il titolare del trattamento deve fornire “informazioni significative sulla logica utilizzata, nonché sull'importanza e le conseguenze previste di tale trattamento per l’interessato” e, dall’altro, l’interessato ha il diritto a non essere sottoposto a decisioni automatizzate prive di un coinvolgimento umano se queste producono effetti giuridici o incidono in modo analogo sull'individuo - il Consiglio di Stato ha richiesto che siano comunque rispettati due principi strettamente connessi alla natura degli algoritmi ed un terzo che introduce invece la questione dell’inscindibile rapporto tra algoritmi e dati.
I primi due principi concernono:
· conoscibilità dell’utilizzo di strumenti algoritmici da parte del destinatario del trattamento e spiegabilità della logica alla base della decisione;
· diritto a che la decisione non sia assunta solamente sulla base di quanto prevede l’algoritmo, ma sia sempre prevista un’assunzione di responsabilità umana (principio di non esclusività);
Il terzo principio fa invece riferimento al diritto alla non discriminazione algoritmica, ossia al fatto che siano assunti tutti gli accorgimenti sia sotto il profilo strutturale e tecnico che organizzativo perché si possano evitare (e correggere) eventuali elementi di distorsione.
Tale fattore tuttavia, oltre alla configurazione dell’algoritmo e della sua costruzione e progressivo affinamento, non può pienamente esplicarsi senza un esame di ciò su cui l’algoritmo opera, ossia essenzialmente i dati (e infatti il divieto concerne discriminazioni delle persone fisiche sulla base della razza o dell'origine etnica, delle opinioni politiche, della religione o delle convinzioni personali, dell'appartenenza sindacale, dello status genetico, dello stato di salute o dell'orientamento sessuale).
Sotto il profilo giudiziario l’utilizzo di algoritmi predittivi pone ulteriori problemi legati alla funzione stessa della giurisdizione, ancorché in alcuni Paesi (come la Francia) esistano già iniziative volte a sperimentare tale strumento [18] .
I massicci investimenti nel campo dell’intelligenza artificiale derivano dalle ampie possibilità applicative nei campi più eterogenei [19] . Gli impieghi più immediati sono costituiti dai suggerimenti automatici di risultato e dai servizi di traduzione. Questi servizi vengono forniti dai motori di ricerca, che impiegano anche ulteriori tecnologie basilari di intelligenza artificiale, data driven. Si tratta di algoritmi tecnicamente molto semplici in grado di ricavare nuove informazioni grazie all’elaborazione di dati già raccolti. Proprio per il tracciamento dei dati si impiegano i c.d. cookie, ovvero file di testo che raccolgono le preferenze (es: lingua, interfaccia, luogo dal quale avviene l’accesso, ecc.) e le informazioni del consumatore (es: pagine che ha visitato, testi trasmessi, ecc.) attivo in un sito web, consentendone una precisa profilazione, che peraltro viene aggiornata in occasione di ogni successivo accesso al medesimo sito.
Tra i principali settori dove si assiste a una implementazione tecnologie di intelligenza artificiale vi sono:
§ Trasporti: la guida autonoma si basa sui sistemi di intelligenza artificiale di apprendimento automatico per rinforzo. In aggiunta, l’interazione tra veicoli (anche mediante lo sfruttamento della tecnologia 5g) promette una drastica riduzione degli incidenti stradali. Accanto a questo, sistemi di intelligenza artificiale gestiscono già adesso, affiancando gli esseri umani, il traffico aereo, ferroviario e, in parte, stradale.
§ Salute: diverse startup stanno investendo oltre che sulla diagnostica su strumenti per prevenire e curare malattie. Ad esempio nel campo della dermatologia, l’individuazione di melanomi a partire da documentazioni fotografiche catalogate è già particolarmente sviluppata grazie al software Fotofinder Mole Analyser PRO [20] .
§ Platform Economy: le grandi piattaforme di e-commerce impiegano l’intelligenza artificiale per guidare le scelte dei consumatori e favorire le transazioni economiche (Amazon è quella che ha investito di più in questo settore).
§ Industria: un insieme di interventi stanno riguardando la trasformazione digitale dell’industria, con modalità che vanno oltre l’industria 4.0. In tale direzione vanno i sistemi di IA per il controllo della produzione e per l’interazione tra uomo e sistemi robotici.
§
Energia: sia nel campo della produzione che della gestione dell’energia le applicazioni di intelligenza artificiale sono molteplici (una tra le più note è rappresentata dalle smart grid).
§ Agricoltura: l’uso di sistemi di intelligenza artificiale per la verifica delle condizioni delle coltivazioni, dei parametri tecnici per l’irrigazione, ecc. sono sempre più diffusi nel settore;
§ Turismo: sono in fase di studio tecnologie per il controllo degli accessi in siti archeologici e di interesse culturale (anche alla luce dell’emergenza COVID-19), in linea con l’intento di predisporre percorsi di visita personalizzati.
§
Assistenti personali: grazie ai progressi nella comprensione del linguaggio naturale, una serie di applicazioni diffuse svolgono compiti di vario genere interagendo con gli esseri umani (tra queste applicazioni rientrano i vari assistenti personali già in commercio).
§ Sicurezza e difesa militare: si tratta dei campi di applicazione più delicati a causa anche dei risvolti etici di tali attività (su cui si veda anche il paragrafo sui rischi dell’intelligenza artificiale);
§ Ricerca scientifica e tecnologica: l’intelligenza artificiale può svolgere un ruolo di primo piano ad esempio anche nel contrasto a fenomeni climatici. Grazie alle capacità di misurazione e di raccolta dati, tale tecnologia può essere utile non solo per monitorare costantemente il livello del mare o lo scioglimento dei ghiacciai, ma anche per prevedere il trend futuro e apportare soluzioni.
§ Giochi: si tratta di uno dei settori “classici” di sviluppo dell’intelligenza artificiale e a cui si legano anche alcune delle tappe fondamentali di sviluppo della stessa nell’immaginario collettivo. Tuttavia le nuove possibilità e i nuovi sviluppi tecnologici hanno prodotto risultati assai interessanti anche in quest’area [21] .
§ Formazione: le tecnologie di intelligenza artificiale non influenzano soltanto discipline collegate al sapere scientifico, come l’informatica e l’ingegneria, dove sono avviati già percorsi di studi per l’implementazione di computer focalizzati all’apprendimento approfondito. In alcune università come Cambridge sono stati avviati alcuni percorsi di studio per lo sviluppo, da parte di laureati in legge insieme a ricercatori dei settori STEM, di algoritmi in grado di simulare argomentazioni di giudici e avvocati. Il risultato è stato la creazione di uno specifico software denominato “Luminance”.
Il nuovo piano coordinato sull'Intelligenza Artificiale 2021 [COM(2021) 205 final] dà conto delle strategie europee che si intendono sviluppare per assicurare una posizione di leadership all’Unione in molti di tali ambiti (sono espressamente elencati: il cambiamento climatico e la tutela dell’ambiente, il settore agricolo ed energetico, la salute, la robotica, il settore legale, dell’immigrazione e dell’asilo e il settore dei trasporti).
L’intelligenza artificiale comporta una serie di rischi che possono essere sia materiali (ricadute sulla salute e sulla sicurezza delle persone, perdite di vite umane o danni patrimoniali) che immateriali (privazioni della privacy, restrizioni alla libertà di espressione, nocumenti alla dignità umana o discriminazioni, ad esempio nell'accesso all'occupazione):
§
Pregiudizi per i diritti fondamentali, compresi la protezione dei dati personali e della privacy e la non discriminazione. L’impiego di enormi quantità di dati per lo sfruttamento di tale tecnologia costituisce un’enorme sfida per la tutela della privacy. Al contempo possono sorgere discriminazioni e distorsioni (i c.d. bias) derivanti da difetti di progettazione del sistema, che possono consistere in un’erronea selezione, organizzazione o catalogazione dei dati. Ad esempio, alcuni algoritmi dell'IA, se usati per prevedere il rischio di recidiva di atti delittuosi, possono riflettere distorsioni legate alla razza e al genere, prevedendo probabilità di rischio di recidiva diverse per le donne rispetto agli uomini, oppure per i cittadini di un determinato paese rispetto agli stranieri (Tolan, Miron, Gomez, Castillo, 2019
[22]
). Ancora, alcuni programmi di IA per l'analisi facciale mostrano distorsioni legate al genere e alla razza, in quanto identificano con maggiore facilità il genere degli uomini di carnagione chiara, mentre commettono più errori nel determinare il genere delle donne di pelle più scura (Buolamwini, Gebru, 2018
[23]
).
§
Pregiudizi per la sicurezza e per il funzionamento efficace del regime di responsabilità. Nuovi rischi per gli utenti derivano dalla dotazione in prodotti e servizi delle tecnologie di IA. Una situazione ricorrente potrebbe essere l’erronea identificazione di un oggetto sulla carreggiata da parte di un’automobile a guida autonoma. Anche qui, difetti di questo genere possono derivare da un’erronea progettazione o da modalità perfettibili di raccoglimento dati. Inoltre, a norma della direttiva sulla responsabilità per danno da prodotti difettosi, il produttore è responsabile dei danni causati; nel caso dell’auto a guida autonoma, può tuttavia rivelarsi difficile provare che il prodotto è difettoso e dimostrare il danno cagionato e il nesso di causalità tra difetto e danno. In aggiunta, non è chiaro come e in che misura si applichi la medesima direttiva nel caso di alcuni tipi di difetti, ad esempio per quelli risultanti da carenze della cibersicurezza del prodotto
[24]
;
§
Trasparenza. Il funzionamento del machine learning, specie nei sistemi di intelligenza artificiale che usano reti neurali, comporta che la decisione della macchina, ancorché di buona qualità, si fondi su processi e una logica interni molto complesse e non ricostruibili dall’operatore umano. Ciò comporta che, a differenza dei “sistemi esperti” che sono in grado di spiegare il motivo di una scelta poiché riproducevano il ragionamento umano deduttivo, il processo decisionale sia opaco (cosiddetto black box). Ancora più sensibile il caso in cui la scarsa trasparenza derivi dall’uso asimmetrico dell’intelligenza artificiale a servizio di uno specifico obiettivo
[25]
.
§
Sostenibilità ambientale. La gestione dei data center (con particolare riferimento al consumo di energia e al raffreddamento), le attività di calcolo, le connessioni fisiche, la conservazione dei dati e le elaborazioni necessarie a trarre valore dagli stessi non sono neutrali da un punto di vista ambientale
[26]
. Il progressivo aumento di tali necessità potrebbe avere un significativo impatto con riferimento alle emissioni climalteranti.
§
Impatti sul mercato del lavoro. Le tecnologie di intelligenza artificiale promettono di sostituirsi all’attività umana in molteplici campi, anche tradizionalmente rientranti in ambito professionale. Ciò è già realtà in alcune professioni afferenti all’ambito medico. Come ricordato in precedenza, la diagnosi dei tumori della pelle può essere già fatta autonomamente da una macchina, denominata “Dermoclic”, che invia la foto scattata al paziente a un’applicazione web che raccoglie tutte le informazioni acquisite nel corso del tempo (“Dermoview”). Tuttavia, ad essere a rischio potranno essere in futuro anche occupazioni come la professione forense e il magistrato, visti gli studi attuati per lo sviluppo di algoritmi in grado di riprodurre le loro capacità decisionali. Inoltre, recentemente è stato pubblicato dal giornale inglese Guardian il primo editoriale redatto (e pubblicato a firma) di una macchina, GPT-3. In altre parole i potenziali impatti sulla organizzazione del lavoro in futuro potranno essere estremamente pervasivi, fino addirittura alla scomparsa di buona parte del lavoro umano
[27]
. Tuttavia non vi sono allo stato evidenze che possano fornire una risposta certa sul fatto che il saldo occupazionale derivante da queste trasformazioni sarà positivo (con un numero di posti di lavoro maggiore rispetto a quelli che saranno distrutti) o meno.
§
Sistemi militari autonomi. L’utilizzo di armi in cui le decisioni di aggressione siano del tutto indipendenti da qualsivoglia intervento umano pone notevoli problemi di carattere etico e giuridico
[28]
.
§
Impatti sulla percezione del reale. L’uso malevolo di algoritmi di profilazione può indirizzare verso un determinato soggetto informazioni mirate in grado di produrre una sistematica alterazione della percezione del reale attraverso informazioni false (fake news) in grado di orientare le decisioni di consumo o politiche dello stesso. I sistemi di intelligenza artificiale possono inoltre generare deep fakes ossia video, foto ed audio estremamente realistici e addirittura indistinguibili dalla realtà in cui sono rappresentate condotte o pronunciate espressioni da una specifica persona che in realtà non le ha mai pronunciate. Le conseguenze in termini di perdita di fiducia e polarizzazione delle società sono intuibili
[29]
.
§
Manipolazione, dipendenza e controllo sociale. Più in generale, l'intelligenza artificiale può consentire nuove pratiche di manipolazione, dipendenza, controllo sociale e sorveglianza indiscriminata, contrarie ai valori di rispetto della dignità umana, libertà, democrazia, Stato di diritto e rispetto dei diritti umani.
L’inquadramento dell’intelligenza artificiale entro una specifica normativa è stato oggetto di molteplici documenti in ambito internazionale ed europeo.
Nel corso del "Information and Communication Ministers Meeting" del G7 che si è tenuto in Giappone nel 2016, è stata lanciata "The Conference toward Artificial Intelligence Network Society" (qui il link al report).
Da questa occasione, sono emerse, nel 2017, le seguenti linee generali:
§ Raggiungere un’intelligenza artificiale antropocentrica;
§ Garantire un adeguato equilibrio tra benefici e rischi dei sistemi di intelligenza artificiale, da un lato promuovendo i benefici attraverso attività di ricerca e sviluppo innovative e aperte, dall’altro mitigando il rischio che i sistemi possano violare diritti o interessi;
§ Assicurare che le attività di ricerca e sviluppo di intelligenza artificiale non siano ostacolate, vigilando che gli sviluppatori non siano sottoposti a pressioni eccessive, in previsione del rapido progresso delle tecnologie.
I principi che devono guidare lo sviluppo di sistemi di intelligenza artificiale sono:
a) Principio di collaborazione;
b) Principio di trasparenza;
c) Principio di controllabilità;
d) Principio di sicurezza;
e) Principio di tutela della privacy;
f) Principio etico;
g) Principio dell'assistenza dell'utente;
h) Principio di responsabilità.
Il 24 maggio 2019 anche il Consiglio dell'OCSE (Organizzazione per la Cooperazione e lo Sviluppo Economico) ha emanato una Raccomandazione in materia di intelligenza artificiale, che identifica cinque principi per una gestione responsabile dell’IA da parte degli attori:
a) crescita inclusiva, sviluppo sostenibile e benessere;
b) valori e equità centrati sull'uomo;
c) trasparenza;
d) robustezza, sicurezza;
e) responsabilità.
Per i decisori politici, la Raccomandazione fornisce ulteriori cinque raccomandazioni:
a) investire nella ricerca e nello sviluppo dell'IA;
b) promuovere un ecosistema digitale per l'intelligenza artificiale;
c) plasmare un ambiente politico favorevole per l'intelligenza artificiale;
d) costruire la capacità umana e prepararsi alla trasformazione del mercato del lavoro;
e) favorire la cooperazione internazionale per l'intelligenza artificiale affidabile.
Inoltre, l’OCSE è l’organismo più attivo sul piano internazionale rispetto alle tematiche dell’Intelligenza artificiale. Negli ultimi due anni, sono stati emanati i seguenti documenti, che rivelano anche un focus settoriale rispetto al possibile impiego delle tecnologie di intelligenza artificiale:
§ Giugno 2019: “Intelligenza artificiale nella società”;
§ Settembre 2019: “Stato dell’arte per l’impiego dell’IA nel settore pubblico”;
§ Novembre 2019: “Hello world: IA e il suo impiego nel settore pubblico”;
§ Febbraio 2020: “IA affidabile nel campo dell’istruzione”;
§ Aprile 2020: “IA affidabile per la salute”;
§ Aprile 2020: “Utilizzo IA per aiuto al contrasto dell’epidemia da Covid – 19”;
§ Maggio 2020: “Identificazione e misurazione dello sviluppo in IA: rendere possibile l’impossibile”.
Inoltre, la dichiarazione ministeriale sul Commercio e l’Economia digitale del G20, emessa il 9 giugno 2019, ha stabilito quattro previsioni per un’intelligenza artificiale antropocentrica:
1) riconoscendo gli sforzi compiuti dagli stakeholders nel campo dell’IA (governi, organizzazioni internazionali, accademia, società civile e settore privato), il G20 si impegna ad un sostegno concreto per la ricerca e lo sviluppo di una imprenditoria digitale;
2) per gli obiettivi di uno sviluppo sostenibile, si promuove un utilizzo responsabile delle tecnologie di IA, in grado di garantire un miglior ambiente lavorativo e migliori condizioni di vita;
3) l’esistenza di rischi e di sfide sociali rende necessaria la creazione di una fiducia da parte dell’opinione pubblica verso queste tecnologie. Sono pertanto fondamentali trasparenza, sicurezza, affidabilità, robustezza e una crescita inclusiva per lo sviluppo e la conoscenza dell’IA;
4) è necessario continuare a salvaguardare la privacy degli individui, migliorando la progettazione dei sistemi.
Sempre in ambito sovranazionale, vi sono anche altri organismi che hanno iniziato a imporre una certa attenzione sul tema dell’intelligenza artificiale. Tra questi, vi è l’Assemblea parlamentare dell’OSCE (Organizzazione per la Sicurezza e la Cooperazione in Europa), che ha dedicato nella Dichiarazione di Lussemburgo - emessa in occasione della sessione annuale dei lavori parlamentari, a cui partecipano anche i membri della delegazione italiana [30] – due previsioni alle tecnologie in esame. Nella prima, vi è un invito ai Parlamenti nazionali ad astenersi dall’autorizzare un impiego dell’IA che comporti rischi (punto 32); la seconda invece autorizza lo sfruttamento dei sistemi di IA ai fini di uno sviluppo ambientale sostenibile (punto 43).
Importante è altresì il contributo dell’Assemblea parlamentare del Consiglio d’Europa. In sede di standing committee, il 22 ottobre 2020 è stato approvato un pacchetto di raccomandazioni e risoluzioni relativo all’impiego dell’intelligenza artificiale. Gli atti sono i seguenti:
§ Raccomandazione 2181 e Risoluzione 2341: “Il bisogno di una governance democratica per l’intelligenza artificiale”;
§ Raccomandazione 2182 e Risoluzione 2342: “Giustizia in base all’algoritmo: ruolo dell’IA per le forze di polizia e per la prevenzione criminale”;
§ Raccomandazione 2183 e Risoluzione 2343: “Prevenire la discriminazione causata dall’impiego dell’intelligenza artificiale”;
§ Raccomandazione 2184 e Risoluzione 2344: “L’interfaccia mente – computer: nuovi diritti o nuove minacce ai diritti fondamentali”;
§ Raccomandazione 2185: “IA per la salute: sfide mediche, legali e etiche”;
§ Raccomandazione 2186 e Risoluzione 2345: “IA e mercato del lavoro: amico o minaccia?”;
§ Raccomandazione 2187 e Risoluzione 2346: “Aspetti legali della guida autonoma” .
Per i primi due provvedimenti (Raccomandazione 2181 e Risoluzione 2341), è stata relatrice l’on. Bergamini, appartenente alla delegazione del nostro Parlamento presso l’Assemblea parlamentare del Consiglio d’Europa. Obiettivo degli atti è favorire l’introduzione di strumenti di controllo per l’applicazione dei sistemi di IA da parte dei singoli Stati, in modo da evitare una monopolizzazione da parte dei soggetti privati. La relazione introduttiva ai due provvedimenti si concentra molto sulle ampie potenzialità degli algoritmi, che spesso e volentieri si presentano nella conformazione di “scatola chiusa”, in quanto l’accesso alla loro progettazione è riservato ai soli sviluppatori privati. Proprio per questo, è necessario garantire il più possibile un coinvolgimento attivo dei soggetti pubblici, che in ogni ordinamento devono essere in grado di predisporre ex ante meccanismi di governance per il concreto impiego delle tecnologie di IA. Tali strumenti di sorveglianza devono però possedere il carattere della proattività, in modo da adattarsi ai continui avanzamenti tecnici dei sistemi intelligenti. A tal proposito, si fa comunque riferimento alle potenzialità limitate di queste tecnologie, che sono in grado di replicare su vasta scala i risultati discendenti dall’attività umana; tuttavia, molta strada resta da percorrere per l’emulazione dei nessi causali propri della mente umana. Anche per questo motivo, gli ordinamenti nazionali devono farsi trovare pronti rispetto a possibili upgrade derivanti dalle scienze computeristiche.
In definitiva, l’Assemblea parlamentare pone come obiettivo della Risoluzione 2341 la realizzazione di una cornice normativa valida per gli Stati aderenti al Consiglio d’Europa, con specifici principi volti al rispetto dei diritti umani, della democrazia e dello Stato di diritto. In tal senso, è da accogliere con favore la formazione, a partire dall’iniziativa del Comitato dei Ministri del Consiglio d’Europa, di una specifica Commissione sull’Intelligenza artificiale (CAHAI), la quale ha anche il compito di favorire il dialogo con i maggiori stakeholders privati.
Si è a lungo discusso dell’adozione di una definizione di intelligenza artificiale che risulti soddisfacente, tuttavia proprio alla luce della combinazione scientifico/tecnologica verificatasi nell’ultimo decennio e sopra descritta, è divenuto particolarmente attuale, anche sotto il profilo giuridico, definire con chiarezza il fenomeno.
In vari documenti europei sono state adottate una serie di definizioni. In particolare sono tre quelle di maggior rilievo:
1) “L’intelligenza artificiale è un termine generico che si riferisce a qualsiasi macchina o algoritmo in grado di osservare l’ambiente circostante, imparando e basando la propria conoscenza sulla conoscenza e l’esperienza acquisita, prendendo e proponendo decisioni. Ci sono diverse tecnologie che ricadono all’interno di questa vasta definizione. Al momento quelle più utilizzate sono le tecniche ML4” (definizione impiegata in Report del Joint research center della Commissione europea “Intelligenza artificiale, una prospettiva europea” del 2018);
2) “L’intelligenza artificiale si riferisce ai sistemi che mostrano un comportamento intelligente dall’analisi dell’ambiente e che prendono decisioni – con un certo grado di autonomia – per raggiungere obiettivi specifici” (definizione impiegata nella Comunicazione COM (2018) 237 final: L’intelligenza artificiale per l’Europa);
3) “L’intelligenza artificiale si riferisce a sistemi che utilizzano tecnologie come: riconoscimento testuale e dei discorsi, visione computerizzata, generazione di linguaggi naturali, machine learning, deep learning per raccogliere e/o usare dati per prevedere, raccomandare o decidere, con vari livelli di autonomia, la migliore azione per raggiungere un certo obiettivo” (definizione impiegata dall’Eurostat in Community survey on ICT usage and e-commerce in enterprises 2021).
Il gruppo di alto livello di esperti sull’Intelligenza artificiale, nominato dalla Commissione europea, come evidenziato nel report dell’Ufficio Pubblicazioni dell’Unione europea “Definining Artificial Intelligence” pubblicato l’8 aprile 2019, ha indicato come preferibile la seguente definizione: “I sistemi di intelligenza artificiale sono software (e possibilmente anche hardware) progettati dall’uomo che, dato un obiettivo complesso, agiscono in una dimensione fisica o digitale a partire dalla percezione dell’ambiente circostante, attuata grazie all’acquisizione di dati. Interpretano i dati raccolti in maniera organizzata e non, ragionando sulle conoscenze acquisite o processando informazioni derivanti dai dati e prendendo decisioni sulle migliori azioni da attuare per raggiungere l’obiettivo prestabilito. I sistemi di intelligenza artificiale possono usare anche regole simboliche o un modello numerico e possono anche adattare il proprio comportamento analizzando come l’ambiente ha risentito delle loro precedenti azioni”.
Tuttavia, preso atto della natura molto ampia della definizione medesima nel medesimo documento è stato precisato come le definizioni contenute nella Comunicazione COM (2018) 237 final: L’intelligenza artificiale per l’Europa, e nel Community survey on ICT usage and e-commerce in enterprises 2021 (sopra riportate), possono essere considerate alternative ragionevoli.
Da ultimo la proposta di Regolamento su un approccio europeo per l'intelligenza artificiale (su cui vedi il paragrafo successivo), pubblicato dalla Commissione europea il 21 aprile 2021, individua, per la prima volta in un testo avente contenuto normativo (ancorché ancora in fase di proposta) una definizione di sistema di intelligenza artificiale:
sistema di intelligenza artificiale o sistema IA: “software sviluppati con una o più delle tecniche e degli approcci elencati nell'allegato I e che può, per una data serie di obiettivi definiti dall'uomo, generare risultati quali contenuti, previsioni, raccomandazioni o decisioni idonee a influenzare gli ambienti con cui interagiscono”.
L’Unione europea ha cercato negli ultimi anni di proporre una regolamentazione sempre più completa delle tecnologie di intelligenza artificiale. L’ultimo approdo è costituito dal libro Bianco promosso dalla Commissione europea nel febbraio 2020, con la comunicazione COM (2020) 65. Prima, vi sono stati una serie di atti assunti dalle varie istituzioni europee, che hanno segnato una sorta di marcia di avvicinamento:
§ 16 febbraio 2017 Risoluzione robotica e IA – Parlamento europeo;
§ 10 aprile 2018 Dichiarazione cooperazione IA – Commissione, firmata da 25 paesi europei;
§ 25 aprile 2018 L’intelligenza artificiale per l’Europa - comunicazione della Commissione COM (2018) 237;
§ 7 dicembre 2018 Piano coordinato sull’intelligenza artificiale - comunicazione della Commissione COM (2018) 795;
§ 12 febbraio 2019 Risoluzione su una politica industriale europea globale in materia di robotica e intelligenza artificiale – Parlamento europeo 2018/2088(INI);
§ 18 febbraio 2019 Conclusioni sul piano coordinato sullo sviluppo e l'utilizzo dell'intelligenza artificiale "Made in Europe" – Consiglio 6177/2019;
§ 8 aprile 2019 Linee guida – Creare fiducia nell’intelligenza artificiale antropocentrica – comunicazione Commissione COM (2019) 168;
§ 22 maggio 2019 Raccomandazione su Intelligenza Artificiale – Consiglio;
§ 26 giugno 2019 Policy and investment recommendations for trustworthy Artificial Intelligence – documento del gruppo di esperti promosso dalla Commissione.
Anche il Consiglio europeo, nelle conclusioni di diverse riunioni, ha espresso in più occasioni le proprie posizioni sullo sviluppo dell’intelligenza artificiale. da ultimo, il 21 ottobre 2021, si segnalano le:
Il 20 ottobre 2020 il Parlamento europeo ha adottato alcune risoluzioni su vari aspetti riguardanti l’intelligenza artificiale in particolare:
§ Risoluzione del Parlamento europeo con raccomandazioni alla Commissione su un quadro di aspetti etici dell'intelligenza artificiale, della robotica e delle tecnologie correlate, 2020/2012 (INL);
§ Risoluzione del Parlamento europeo recante raccomandazioni alla Commissione su un regime di responsabilità civile per l'intelligenza artificiale, 2020/2014 (INL);
§ Risoluzione del Parlamento europeo sui diritti di proprietà intellettuale per lo sviluppo di tecnologie di intelligenza artificiale, 2020/2015 (INI);
§ Progetto di relazione del Parlamento europeo su Intelligenza artificiale nel diritto penale e suo utilizzo da parte delle autorità di polizia e giudiziarie in materia penale, 2020/2016 (INI).
§ Progetto di relazione del Parlamento europeo, Intelligenza artificiale nell'istruzione, nella cultura e nel settore audiovisivo, 2020/2017 (INI).
Il “libro bianco sull'intelligenza artificiale - Un approccio europeo all'eccellenza e alla fiducia” COM (2020) 65 elenca una serie di azioni utili per costruire un ecosistema di eccellenza che possa sostenere lo sviluppo e l'adozione dell'IA nell'economia e nella pubblica amministrazione dell'UE:
1. la proposizione, da parte della Commissione agli Stati membri, di una revisione del piano coordinato;
2. la creazione di centri di prova e di eccellenza che possano combinare gli investimenti europei, nazionali e privati, eventualmente anche con un nuovo strumento giuridico. Nell'ambito del quadro finanziario pluriennale per il periodo 2021-2027 la Commissione ha proposto di dedicare un importo ambizioso a sostegno di tali centri;
3. l’istituzione e il sostegno, attraverso il pilastro relativo alle competenze avanzate del programma Europa digitale, di reti che collegano le università e gli istituti di istruzione superiore principali, al fine di attrarre i migliori professori e scienziati e di offrire corsi di laurea magistrale di eccellenza a livello mondiale nel campo dell'IA;
4. la garanzia di almeno un polo dell'innovazione digitale per Stato membro altamente specializzato in IA, finanziato con le risorse del programma Europa digitale. Commissione e Fondo europeo per gli investimenti hanno avviato un progetto pilota con un investimento di 100 milioni di euro nel primo trimestre del 2020 per fornire finanziamenti con capitale di rischio per sviluppi innovativi nel campo dell'IA;
5. la costituzione da parte della Commissione di un nuovo partenariato pubblico-privato per l'IA, i dati e la robotica, al fine di unire gli sforzi, garantire il coordinamento della ricerca e dell'innovazione nell'IA;
6. la promozione di dialoghi settoriali aperti e trasparenti dando priorità agli operatori del servizio pubblico, delle amministrazioni rurali e dell'assistenza sanitaria, al fine di presentare un piano d'azione che faciliti lo sviluppo, la sperimentazione e l'adozione dell'IA mediante l’elaborazione di uno specifico "Programma di adozione dell'IA".
Per la messa in atto di queste sei azioni, la Commissione individua dei possibili interventi sulla normazione esistente sia a livello europeo che nazionale:
§ verificare l’effettiva applicazione e il rispetto della normativa nazionale e dell’UE in vigore: il campo dell’intelligenza artificiale è contraddistinto da una serie di opacità sul piano tecnico; è dunque difficile individuare e dimostrare violazioni normative attribuendo responsabilità;
§
ampliare i limiti dell'ambito di applicazione della legislazione dell'UE vigente: emergono dubbi circa la possibilità di qualificare i software come prodotti e la conseguente applicabilità della normativa dell'UE in materia di sicurezza dei prodotti. La normativa generale dell'UE in materia di sicurezza attualmente in vigore si applica ai prodotti ma non ai servizi, per cui in linea di principio non si applica nemmeno ai servizi basati sulla tecnologia di IA (ad esempio servizi sanitari, finanziari e di trasporto);
§
analizzare la funzionalità mutevole dei sistemi di IA: l’integrazione del software all’interno del prodotto potrebbe modificarne il funzionamento. Tali caratteristiche possono dar luogo a nuovi rischi che non erano presenti quando il sistema è stato immesso sul mercato e che non sono pertanto regolamentati dalla normativa esistente;
§
risolvere l’incertezza in merito all'attribuzione delle responsabilità tra i diversi operatori economici lungo la catena di approvvigionamento: se la tecnologia di intelligenza artificiale è installata in un momento successivo alla produzione dell’oggetto, il responsabile non può essere il produttore originario. La legislazione dell’UE lascia agli Stati membri la possibilità di statuire le responsabilità dei soggetti che intervengono nella catena di approvvigionamento;
§ evolvere il concetto di sicurezza: l'uso dell'IA nei prodotti e nei servizi può dar luogo a rischi che la legislazione dell'UE attualmente non affronta in modo esplicito. Tali rischi possono essere collegati alle minacce informatiche, alla sicurezza personale e ai problemi di connettività. È dunque necessario un restyling della normativa europea per contrastare tali minacce.
Da ultimo, il libro bianco considera delle prescrizioni specifiche per i settori ad alto rischio, come quelli dell'assistenza sanitaria, dei trasporti, dell'energia e parti del settore pubblico. È necessaria un’attenzione supplementare rispetto ai normali campi di applicazione, che si sostanzia nel rispetto delle seguenti raccomandazioni per l’adozione di:
§ misure necessarie per garantire che, nell'individuare i dati di addestramento dei sistemi di IA, siano rispettati i valori e le norme dell'UE, in particolare per quanto riguarda la sicurezza e le norme vigenti in materia di tutela dei diritti fondamentali;
§ prescrizioni per la tenuta di registri relativi alla programmazione dell'algoritmo, ai dati utilizzati per addestrare sistemi di IA ad alto rischio e, in alcuni casi, per la tenuta dei dati stessi;
§ provvedimenti informativi sulla capacità e il funzionamento delle tecniche di IA, in grado di rafforzare la fiducia e agevolare la riparazione del danno ove necessario;
§ sistemi di IA robusti e precisi, in grado di garantire che tali tecnologie si comportino in modo affidabile secondo le previsioni.;
§ un adeguato coinvolgimento degli esseri umani, che mediante sorveglianza accertino il corretto funzionamento dei sistemi di IA;
§ prescrizioni specifiche per determinate applicazioni particolari dell'IA, come quelle utilizzate a fini di identificazione biometrica remota.
Per ulteriori approfondimenti, anche relativamente al contesto europeo di riferimento, si veda il dossier “Plasmare il futuro digitale dell'Europa, la strategia europea per i dati e il Libro Bianco sull'intelligenza artificiale” a cura dell’Ufficio rapporti con l’Unione europea della Camera dei deputati.
Su tali documenti la IX Commissione della Camera ha approvato il proprio documento finale nella seduta del 19 maggio 2021.
L’inquadramento entro una cornice giuridica dei sistemi di intelligenza artificiale è l’obiettivo principale a cui tende l’opera normativa dell’Unione e degli Stati membri. Di pari passo, la Commissione ha cercato di promuovere delle linee guida sul piano etico, in grado di prescrivere quali debbano essere gli accorgimenti per prevenire dannosità materiali e immateriali causabili da tali tecnologie.
La Commissione ha quindi emanato l’8 aprile 2019 una comunicazione (COM (2019) 168) intitolata “Creare fiducia nell’intelligenza artificiale antropocentrica”. In questo documento, sono indicate sette raccomandazioni da osservare per un’IA eticamente affidabile:
1. intervento e sorveglianza umani: contribuiscono a garantire che i sistemi di IA non mettano in pericolo l'autonomia umana o provochino altri effetti negativi. La sorveglianza può essere effettuata mediante meccanismi di governance che implichino l'adozione di un approccio con intervento umano ("human-in-the-loop"), con supervisione umana ("human-on-the-loop") o con controllo umano ("human-in-command");
2. robustezza tecnica e sicurezza: per l’affidabilità dell’IA è essenziale avere algoritmi sicuri, affidabili e sufficientemente robusti, in grado di far fronte a errori e incongruenze durante tutte le fasi del ciclo di vita del sistema di IA. Le decisioni dei sistemi devono essere accurate, con risultati riproducibili. È necessario anche garantire un piano di emergenza in caso di problemi;
3. riservatezza e governance dei dati: sono requisiti da garantire in tutte le fasi. Risulta fondamentale avere una buona qualità del set di dati e predisporre un sistema di conservazione degli stessi. I sistemi di IA sono in grado di dedurre non solo le preferenze, l'età e il genere dei singoli, ma anche il loro orientamento sessuale e il loro credo religioso o politico;
4. trasparenza: è estremamente importante rendere consapevoli i soggetti coinvolti del funzionamento di tali tecnologie. Bisogna dunque promuovere una ricerca sui profili di spiegabilità e al contempo proseguire nell’implementare la tracciabilità dei meccanismi di IA;
5.
diversità, non discriminazione ed equità: il set di dati può essere influenzato da condizionamenti storici involontari, incompletezza e modelli di governance inadatti. Un danno può derivare dallo sfruttamento volontario di tali distorsioni: è pertanto utile diversificare nella creazione dei gruppi di progettazione, avallando anche la partecipazione dei cittadini;
6. benessere sociale e ambientale: l’IA affidabile dovrebbe tenere conto del suo impatto su esseri senzienti e ambiente. Non deve pregiudicare le diversità e la natura. Dal punto di vista sociale, è a sua volta importante considerare l’impatto di tali tecnologie;
7. accountability: con tale termine si intendono la verificabilità e i sistemi in grado di valutare l’impatto delle tecniche di IA. Risulta fondamentale individuare i potenziali impatti negativi e contrastarli, oltre che predisporre adeguati mezzi di riparazione.
La Commissione si impegna ad adoperarsi affinché l’approccio seguito dell’Unione raggiunga un’adeguata valorizzazione a livello mondiale. Per farlo, è necessario da un lato convergere su progetti comuni per gli orientamenti etici con altri Paesi (come Giappone, Canada e Singapore), coinvolgendo in “progetti pilota” imprese e organizzazioni internazionali. È poi essenziale continuare a svolgere un ruolo di primo piano nei consessi come il G7 e il G20, avviando dialoghi con Paesi terzi con l’organizzazione di riunioni bilaterali o multilaterali. Infine deve essere potenziato il contributo europeo alla normazione all’interno degli organismi internazionali, migliorando anche la raccolta e la diffusione di conoscenze su politiche pubbliche.
Alcuni dei rischi (vedi paragrafo 2.5) e delle problematiche etiche (paragrafo 3.2.4) relativi all’utilizzo degli strumenti di intelligenza artificiale, coerentemente con gli obiettivi indicati nel libro bianco sull’intelligenza artificiale, vengono affrontati nell’ambito della proposta di regolamento della Commissione europea sull'approccio europeo all'Intelligenza Artificiale, pubblicata il 21 aprile 2021, nel quale viene delineato un quadro regolatorio piuttosto articolato della materia.
La proposta valuta i rischi dell'Intelligenza Artificiale, con la finalità di salvaguardare i valori e i diritti fondamentali dell'UE e la sicurezza degli utenti; si prevede a tal fine anche un nuovo piano coordinato sull'Intelligenza Artificiale 2021 [COM(2021) 205 final] che rafforzi nel contempo l'adozione dell'IA e gli investimenti e l'innovazione nel settore in tutta l'UE.
La Commissione delinea le caratteristiche del quadro giuridico di riferimento sull'intelligenza artificiale individuando i seguenti elementi costitutivi: oltre alle misure che stabiliscono un approccio alla regolamentazione della tecnologia basato sul rischio chiaramente definito (non solo basato sulla funzione svolta dal sistema di intelligenza artificiale ma anche dagli obiettivi e dalle modalità secondo le quali essi sono perseguiti), si prevedono anche misure a sostegno dell'innovazione, misure che facilitano l'istituzione di codici di condotta volontari e un quadro di governance a sostegno dell'attuazione del regolamento a livello dell'UE e nazionale e, se del caso, del suo adattamento.
La proposta di regolamento individua quindi il regime applicabile ai sistemi di intelligenza artificiale, graduando la regolamentazione in relazione ai rischi che possono derivare dall’uso degli stessi, individuando i sistemi ad alto rischio (per esempio con riferimento ai possibili pregiudizi all’incolumità fisica e alla salute si fa riferimento ai sistemi di guida autonoma, ovvero con riguardo all’analisi dei dati ai rischi di discriminazione che possono intervenire nel settore del lavoro, dei diritti economici, dei diritti sociali, ecc.), per i quali viene introdotta una specifica disciplina, affinché rispettino determinati requisiti obbligatori relativi alla loro affidabilità, e per i quali si prevede un’apposita registrazione, quelli a rischio limitato e minimale nonché vietando alcuni utilizzi dell’intelligenza artificiale (sistemi a rischio intollerabile).
Con riferimento alle pratiche vietate di intelligenza artificiale in quanto contrarie ai principi dell'Unione ed ai suoi diritti fondamentali, la proposta di regolamento prevede le seguenti:
a) l'immissione sul mercato, la messa in servizio o l'uso di sistemi di IA che utilizzino tecniche subliminali al di là della consapevolezza di una persona al fine di falsare in misura rilevante il comportamento di una persona in modo tale da provocare o da poter causare a tale persona o ad un'altra persona un danno fisico o psicologico;
b) l'immissione sul mercato, la messa in servizio o l'uso di sistemi di IA che sfruttino qualsiasi vulnerabilità di un gruppo specifico di persone, per la loro età o disabilità fisica o mentale, al fine di falsarne in misura rilevante il comportamento in un modo che provochi o possa provocare danni fisici o psicologici agli stessi o ad altri;
c) l'immissione sul mercato, la messa in servizio o l'uso di sistemi di IA da parte di pubbliche autorità o per loro conto, che valuti o classifichi l'affidabilità delle persone fisiche per un determinato periodo di tempo sulla base del loro comportamento sociale o caratteristiche o della personalità, note o previste, mediante un punteggio sociale che determini uno o entrambi i seguenti elementi:
- un trattamento pregiudizievole o sfavorevole di talune persone fisiche o di interi gruppi di persone fisiche in contesti sociali che non hanno alcun rapporto con i contesti con cui i dati sono stati originariamente generati o raccolti;
- un trattamento pregiudizievole o sfavorevole di talune persone fisiche o di interi gruppi di persone fisiche che sia sproporzionato rispetto alla gravità del loro comportamento sociale;
d) l'uso di sistemi di identificazione biometrica remota "in tempo reale" in spazi accessibili al pubblico ai fini dell'applicazione della legge, a meno che e nella misura in cui tale uso sia strettamente necessario per uno dei seguenti motivi:
- la ricerca mirata di potenziali vittime di crimini, inclusi i bambini scomparsi;
- la prevenzione di specifiche e imminenti minacce alla vita di persone o di attacchi terroristici;
- l'accertamento, la localizzazione, l'identificazione o l'azione penale nei confronti di un autore del reato o sospettato di un reato punibile con una pena o una misura massima di almeno tre anni.
Per l'uso di tali sistemi di identificazione biometrica vengono comunque definiti una serie di specifici requisiti.
Sebbene la proposta di Regolamento non si applichi ad uno degli usi più sensibili dell’intelligenza artificiale, ossia ai sistemi utilizzati esclusivamente per il funzionamento di armi o altri scopi militari, sono quindi sostanzialmente affrontate le principali criticità, sopra delineate, connesse naturalmente all’uso dell’intelligenza artificiale, vietando esclusivamente quelle ontologicamente incompatibili con i principi fondanti l’Unione europea.
La spinta verso l’attività di normazione nel campo dell’intelligenza artificiale viene, come visto, dall’ambito sovranazionale. In particolare, l’Unione europea cerca di promuovere quanto più possibile un uniforme sviluppo tecnologico e soprattutto regolamentare della materia. Diversi Stati europei hanno peraltro già elaborato proprie strategie nazionali per l’intelligenza artificiale [31] .
In Italia, gli ultimi tre anni hanno visto una vasta produzione di documenti provenienti da più direzioni, che hanno cercato di definire tecnicamente cosa sia l’intelligenza artificiale e si sono proposti di attribuirle una cornice utile ad un inquadramento giuridico. Gli atti a tal proposito più significativi sono i seguenti:
1. “Libro Bianco dell’IA a servizio del cittadino”, pubblicato da AGID del 2018, il quale offre una prima panoramica del possibile impiego dell’IA in relazione ai servizi e alla pubblica amministrazione;
2. Il Documento “AI for Future Italy”, che si rivolge alle esigenze di ricerca scientifica ed industriale, alle problematiche di educazione, progettualità e attività congiunta tra istituzioni ed industria, redatto approvato nel maggio 2020 dal Lab CINI AIIS [32] ;
3. Il PNR 2021- 2027, in via di elaborazione da parte del MIUR. Esso prevede diversi grandi domini di azione e per la prima volta un ambito specifico “Intelligenza Artificiale” in stretto coordinamento con altri settori quali la trasformazione digitale, i Big Data, la robotica, la Cibersicurezza, e altri;
4. “Proposte per una Strategia Italiana per l’intelligenza artificiale” redatto dal “Gruppo di 20 Esperti di Alto Livello” selezionati dal MISE nel dicembre 2018 e presentato per consultazione nel maggio 2019. Il documento finale avente ad oggetto “Proposte per una Strategia Italiana per l’intelligenza artificiale” è stato completato e reso pubblico nel giugno 2020. A partire dalle proposte, è stata emanata nel settembre 2020 la “Strategia Nazionale per l’intelligenza artificiale” da parte del MISE, sottoposta a consultazione pubblica il 2 ottobre 2020 (conclusasi il 31 ottobre 2020).
Tra questi documenti, merita qualche puntualizzazione aggiuntiva la “Strategia Nazionale per l’intelligenza artificiale” attuata dal MISE. Sono sei le priorità individuate:
1.
l’IA per imprese più competitive;
2.
l’IA per una pubblica amministrazione più moderna;
3.
l’IA per cittadini consapevoli e rafforzati;
4.
creazione di professionisti competenti in tutti i campi;
5.
regolamentare al meglio l’impiego dei dati;
6. formulare un programma per l’investimento di risorse e per la governance.
Per ciascuna di queste, la strategia individua degli obiettivi e delle iniziative. Dalla lettura complessiva della strategia emerge come gli obiettivi e le iniziative da attuare nei diversi settori siano spesso interconnessi. Soltanto un avanzamento coordinato dei vari elementi può permettere un pieno sfruttamento delle potenzialità tecniche di tali tecnologie.
Di seguito si elencano le principali iniziative da attuare:
§ accelerazione del cambiamento digitale;
§ riorganizzazione degli apparati delle PMI e della PA;
§ utilizzo più intelligente dei dati;
§ creazione di data trust per la sostenibilità;
§ partenariato pubblico – privato;
§ forte investimento pubblico;
§ aggiornamento delle competenze del cittadino;
§ piano IA per i consumatori;
§ revisione dei corsi di laurea;
§ creazione di una cabina di regia per una supervisione dell’avanzamento tecnologico e normativo nel nostro Paese.
Con riferimento ai profili etici dell’intelligenza artificiale, pro futuro, la Fondazione Leonardo [33] nello “Statuto Etico e Giuridico dell’IA” (2019) ha proposto una serie di obblighi e raccomandazioni. A tal proposito, si riportano quelli che secondo la fondazione sono gli obiettivi da raggiungere per promuovere uno sviluppo moralmente responsabile dei sistemi di IA:
§ fiducia: essa gioca un ruolo cruciale in ogni processo di innovazione. Solo tutelando e promuovendo il capitale di fiducia sociale relativo all’IA sarà possibile coglierne appieno le potenzialità;
§ accessibilità: le modalità con cui le tecniche di apprendimento automatico processano informazioni non sono facilmente accessibili, trasparenti e spiegabili. È dunque necessaria sia una trasparenza tecnica che una traduzione dei meccanismi di funzionamento dell’algoritmo alla comunità;
§ sicurezza: l’accessibilità ai sistemi riguarda direttamente la dignità personale, essendo un dovere essenziale del progettista evitare interferenze esterne e conseguenti esternalità negative;
§ usabilità: la rilevanza dell’intermediazione tra sistema ed essere umano trova una sua giustificazione nell’esigenza di assicurare trasparenza, controllo e trust; inoltre, essa acquista maggiore significato quando speciali categorie di utilizzatori usufruiscono del sistema;
§ controllo: l’operatore non deve rivestire il ruolo di esecutore passivo esente da responsabilità morali e giuridiche connesse all’utilizzo di tali sistemi. Il controllo dei sistemi di IA può articolarsi in due direzioni: una descrittiva, in cui si definisce il grado di autonomia di un sistema IA; una normativa, in cui si trasferisce ogni livello di controllo in un determinato regime giuridico;
§ responsabilità: non è chiaro se la responsabilità per alcune decisioni prese da un sistema intelligente debbano essere attribuite al suo sviluppatore, al venditore del software, all’utilizzatore o a terze parti. Il problema non è di facile risoluzione; potrebbe inoltre essere controproducente creare e utilizzare un unico sistema di riferimento per gestire la responsabilità di attori diversi in circostanze differenti;
§ riparazione: un sistema di intelligenza correttamente funzionante difficilmente può essere perfetto per tutte le decisioni prese. Un’ottima tecnologia potrebbe avere una percentuale del 98% di decisioni giuste e il 2% di scelte errate. Nasce però il problema di come porre rimedio a queste ultime, che possono generare ricadute. Una soluzione potrebbe essere configurare dalla progettazione meccanismi alternativi in grado di correggere le decisioni sbagliate prese da un sistema perfettamente funzionante, affinando le sue capacità predittive.
L’Europa punta molto sullo sviluppo dell’intelligenza artificiale e al rafforzamento dell’indotto economico derivante da questo settore. Dal rapporto EPSC (EPSC 2019) del marzo 2019, l’IA e i sistemi cognitivi hanno guidato investimenti nel mondo con ricavi passati dai 6.4 miliardi di euro del 2016 ai 37.8 miliardi di euro nel 2020. Al momento, si suppone che l’IA contribuisca per una percentuale pari al 14% al Prodotto Interno Lordo globale (pari a 12.8 milioni di miliardi di euro). Si stima che tale apporto salirà al 40% nel 2035 (1).
L’indice I-Com 2019 [34] sul grado di preparazione all’IA dei Paesi europei offre un’analisi del grado di adozione di tecnologie e applicazioni intelligenti da parte dei singoli Stati Membri. Su un massimo di 100, l’Italia ha ottenuto un punteggio di 91, posizionandosi al tredicesimo posto complessivo grazie all’ottima performance nel campo della robotica. Si sconta tuttavia ancora un gap eccessivo nell’analisi dei Big Data. L’indice sintetico tiene conto delle seguenti 13 variabili strettamente connesse al tema e che si riferiscono all’adozione delle tecnologie (dalla 1 alla 7), alle competenze (dalla 8 alla 10), alla sicurezza (11) e alle infrastrutture di rete (dalla 12 alla 13):
1. Imprese che utilizzano tecnologie RFID (radio frequency identification). In Europa, il 12% delle imprese utilizza tecnologie per l’identificazione delle frequenze radio utili per l’identificazione delle persone, per il monitoraggio della catena del valore o per l’identificazione del prodotto post-vendita. L’Italia si colloca di 1 punto percentuale (13%) al di sopra della media europea.
2. Imprese che dispongono di un pacchetto software ERP (enterprise resource planning) per condividere informazioni tra le diverse aree funzionali. La percentuale di imprese europee che ha utilizzato software ERP nel 2017 è pari al 34%. L’Italia con il 37% delle imprese che dispongono di software ERP si posiziona nella prima metà della classifica.
3. Imprese che utilizzano CRM (customer relationship management). Nel 2017, il 33% delle imprese europee ha utilizzato software CRM. In Italia, la diffusione di software CRM è al di sotto della media europea di 2 punti percentuali.
4. Imprese che acquistano servizi cloud computing di alta qualità. A livello europeo il 14% delle imprese ha acquistato e dunque utilizzato servizi sofisticati di cloud computing. L’Italia è poco al di sotto della media europea (11%), dopo Spagna e Francia, ma davanti alla Germania.
5. Imprese che analizzano Big Data da qualsiasi fonte. Il 12% delle imprese europee ha analizzato Big Data da qualsiasi fonte nel 2018. In Italia, invece, il 7% delle imprese ha analizzato Big Data, poco più di quanto registrato in Ungheria, Austria e Cipro.
6. Imprese che utilizzano la stampa 3D. Il 4% delle imprese italiane ha utilizzato la stampa 3D nel 2018, in linea con il dato europeo.
7. Imprese che utilizzano robot. Il 9% delle imprese italiane con almeno 10 dipendenti ha già adottato una forma di automazione, superando la media europea che si attesta al 7%.
8. Occupati ICT (information and communications tecnology) rispetto al totale occupati. Gli occupati ICT rappresentano circa il 4% del totale europeo. L’Italia, con il 2,8% di occupati ICT rispetto al totale occupati si colloca al 22° posto dietro a Germania, Francia e Spagna.
9. Data workers sul totale occupati. La percentuale di data workers rispetto all’occupazione totale è pari a 3,4% nell'UE-28. L’Italia, con il 2,8%, è in ritardo rispetto alla media europea.
10. Percentuale di laureati in materie STEM (Science, Technology, Engineering and Mathematics). In Europa la percentuale di laureati in STEM è pari al 26%. L’Italia ricopre il 15° posto, al di sotto della media europea (23%).
11. Imprese che hanno definito una politica di sicurezza ICT. Il 32% delle imprese europee ha definito nel 2015 una politica di sicurezza informatica. In particolare, Svezia, Portogallo e Italia appaiono particolarmente sensibili al tema delle cybersecurity, dove più del 40% delle imprese ha già una politica ben definita.
12. Copertura NGA. L’Italia riporta un ulteriore significativo incremento della copertura della banda larga veloce (NGA), raggiungendo il 90% delle famiglie e superando dunque la media UE (83%).
13. Copertura 4G. Quasi la totalità delle famiglie europee è coperto da reti mobili 4G. In Italia tale percentuale raggiunge circa il 99%, posizionandosi al 13° posto.
Per quanto concerne l’indice DESI (Digital Economy and Society Index), la performance dell’Italia è particolarmente deludente, con un posizionamento antecedente solo a Bulgaria, Grecia e Romania. Difatti, l’indice risulta pari a 43,64, a fronte di una media UE-28 di 52,6. I ritardi più importanti vengono accumulati sul fronte del capitale umano (che identifica le competenze digitali della popolazione), nell’utilizzo di Internet e sul fronte dell’integrazione delle tecnologie digitali nella società, come e-commerce e digitalizzazione del business.
Al contrario, risulta ottima la predisposizione infrastrutturale alla tecnologia 5G, con l’Italia terzo Paese europeo. Per il funzionamento della rete, è infatti necessaria un’armonizzazione a livello europeo dello spettro radio. In percentuale, lo spettro radio armonizzato per le infrastrutture 5G è pari al 60% della rete totale, a fronte di una media europea del 21% (3).
Tabella SWOT riassuntiva – sistema Italia
Punti di forza
|
Punti di debolezza
|
·
Sistema industriale forte con punte di eccellenza;
·
Sistema universitario di buon livello;
·
Buon avanzamento nella predisposizione di quanto necessario per lo sviluppo del 5G;
·
Numero consistente imprese che utilizzano RFID;
·
Numero consistente di imprese che impiegano il software ERP;
·
Impiego di macchinari automatizzati (robot);
·
Applicazione da parte delle imprese di politiche di sicurezza ICT;
·
Vasta copertura NGA;
·
Posizione di leadership nel settore del supercalcolo.
|
·
Poche imprese impiegano CRM;
·
Scarso utilizzo del cloud computing;
·
Limitata considerazione potenzialità dei Big Data da parte imprese;
·
Pochi occupati ICT;
·
Basso numero di data workers;
·
Pochi laureati in STEM;
·
Arretratezza nel capitale umano;
·
Utilizzo sotto la media di internet da parte della popolazione;
·
Scarsa valorizzazione dell’e-commerce e del digital business;
·
Ritardi nella realizzazione delle reti fisse ad alta velocità.
|
Opportunità
|
Minacce e rischi |
·
Digitalizzazione delle imprese e maggiore competitività;
·
Formazione di manodopera specializzata;
·
Miglioramento della qualità dei percorsi di formazione tecnica e valorizzazione degli ITS;
·
Miglioramento della qualità dei percorsi universitari, anche con la predisposizione di corsi di laurea di eccellenza;
·
Miglioramento delle conoscenze digitali della popolazione;
·
Disponibilità di risorse europee da investire nello sviluppo della digitalizzazione;
·
Miglioramento della performance delle imprese mediante l’impiego di tali tecnologie;
·
Maggiore fiducia da parte della collettività verso i processi produttivi.
|
·
Rischio di un gap crescente con altri Paesi europei, soprattutto nel campo dei Big Data;
·
Minore competitività delle imprese sul mercato digitale internazionale;
·
Scarsa informatizzazione della popolazione;
·
Qualità della formazione inferiore rispetto ad altri Paesi europei;
·
Mancato sviluppo di professionalità alternative e nuove opportunità di lavoro in questo settore;
·
Disoccupazione;
·
Riduzione del PIL potenziale.
|
I dati costituiscono una risorsa determinante per l’intelligenza artificiale. Da essi dipendono infatti le possibilità di funzionamento del sistema, poiché rappresentano gli input da cui gli algoritmi riescono a trarre risultati. Anche sul piano normativo i due temi sono collegati. L’attenzione sui dati è però molto più risalente nel tempo sia in ambito europeo che in quello nazionale ed è sicuramente cresciuta con lo sviluppo dei computer e di internet.
I dati nell’ordinamento europeo
La particolare cura riservata nell’ordinamento europeo è visibile anche nella formulazione dei Trattati e della Carta di Nizza. Anche la Convenzione per la salvaguardia dei Diritti dell’Uomo e delle Libertà fondamentali (CEDU) del Consiglio d’Europa presenta disposizioni che tengono conto di questi profili. Nello specifico, destano particolare interesse i seguenti articoli: § art 16 TFUE: “1. Ogni persona ha diritto alla protezione dei dati di carattere personale che la riguardano. 2. Il Parlamento europeo e il Consiglio, deliberando secondo la procedura legislativa ordinaria, stabiliscono le norme relative alla protezione delle persone fisiche con riguardo al trattamento dei dati di carattere personale da parte delle istituzioni, degli organi e degli organismi dell'Unione, nonché da parte degli Stati membri nell'esercizio di attività che rientrano nel campo di applicazione del diritto dell'Unione, e le norme relative alla libera circolazione di tali dati. Il rispetto di tali norme è soggetto al controllo di autorità indipendenti. Le norme adottate sulla base del presente articolo fanno salve le norme specifiche di cui all'articolo 39 del trattato sull'Unione europea”. All’interno della Carta di Nizza, che ha eguale valore giuridico dei trattati, sono quattro gli articoli riconducibili a tale tema:
i.
Art. 7: “Rispetto della vita privata e della vita familiare Ogni individuo ha diritto al rispetto della propria vita privata e familiare, del proprio domicilio e delle sue comunicazioni”.
ii.
Art. 8: “Protezione dei dati di carattere personale
1. Ogni individuo ha diritto alla protezione dei dati di carattere personale che lo riguardano. 2. Tali dati devono essere trattati secondo il principio di lealtà, per finalità determinate e in base al consenso della persona interessata o a un altro fondamento legittimo previsto dalla legge. Ogni individuo ha il diritto di accedere ai dati raccolti che lo riguardano e di ottenerne la rettifica. 3. Il rispetto di tali regole è soggetto al controllo di un’autorità indipendente”.
iii.
Art. 41 par. 2: “Diritto ad una buona amministrazione
2. Tale diritto comprende in particolare: il diritto di ogni individuo di essere ascoltato prima che nei suoi confronti venga adottato un provvedimento individuale che gli rechi pregiudizio, il diritto di ogni individuo di accedere al fascicolo che lo riguarda, nel rispetto dei legittimi interessi della riservatezza e del segreto professionale, l’obbligo per l’amministrazione di motivare le proprie decisioni”.
iv.
Art. 42: “Diritto d’accesso ai documenti
Qualsiasi cittadino dell’Unione o qualsiasi persona fisica o giuridica che risieda o abbia la sede sociale in uno Stato membro ha il diritto di accedere ai documenti del Parlamento europeo, del Consiglio e della Commissione”.
Convenzione per la salvaguardia dei Diritti dell’Uomo e delle Libertà fondamentali del Consiglio d’Europa - CEDU:
i.
Art. 8 “Diritto al rispetto della vita privata e familiare
1. Ogni persona ha diritto al rispetto della propria vita privata e familiare, del proprio domicilio e della propria corrispondenza. 2. Non può esservi ingerenza di una autorità pubblica nell’esercizio di tale diritto a meno che tale ingerenza sia prevista dalla legge e costituisca una misura che, in una società democratica, è necessaria alla sicurezza nazionale, alla pubblica sicurezza, al benessere economico del paese, alla difesa dell’ordine e alla prevenzione dei reati, alla protezione della salute o della morale, o alla protezione dei diritti e delle libertà altrui”.
ii Art. 10 CEDU par. 2: “Libertà di espressione
2. L’esercizio di queste libertà, poiché comporta doveri e responsabilità, può essere sottoposto alle formalità, condizioni, restrizioni o sanzioni che sono previste dalla legge e che costituiscono misure necessarie, in una società democratica, alla sicurezza nazionale, all’integrità territoriale o alla pubblica sicurezza, alla difesa dell’ordine e alla prevenzione dei reati, alla protezione della salute o della morale, alla protezione della reputazione o dei diritti altrui, per impedire la divulgazione di informazioni riservate o per garantire l’autorità e l’imparzialità del potere giudiziario”. |
|
Il dizionario Treccani definisce i dati differenziandoli in analogici e digitali. Quelli digitali sono elementi di un’informazione costituiti da simboli (numeri, lettere: d. numerici, alfabetici, alfanumerici) che devono essere elaborati, per lo più elettronicamente, secondo un determinato programma.
Per avere ottimi sistemi di intelligenza artificiale è necessaria la disponibilità di dataset ampi e ben strutturati. I dati devono essere infatti conservati in una sorta di “magazzino” da cui estrarre il più velocemente possibile le informazioni raccolte. Il punto di forza dell’organizzazione in database è che è possibile cercare relazioni tra i vari set di dati per trovare correlazioni. Il valore del dato non è, quindi, generato dal singolo byte di informazione ma dall’aggregazione di tante piccole informazioni che, unite tra loro in modo strutturato, generano informazioni ad alto valore aggiunto. Il problema più rilevante che può affliggere i dataset è dato dai bias. Tale termine è traducibile letteralmente come distorsioni, che consistono in errori di valutazione nel significato di un’immagine o di un concetto che vanno ad inficiare negativamente tutti gli output dell’analisi. Pertanto, non è auspicabile combinare una grande quantità di dati senza avere garanzie relativamente alla qualità della loro repertazione.
La proposta di regolamento sull'approccio europeo all'Intelligenza Artificiale [COM(2021) 206 final], dedica, con riferimento ai sistemi di intelligenza artificiale ad alto rischio, una specifica attenzione proprio alla selezione e alla gestione dei dataset utilizzati per l’apprendimento dei sistemi ma anche quelli relativi ai test e alla validazione, rispetto ai quali viene richiesta anche una documentazione riguardante la relativa caratterizzazione e la verifica preliminare di possibili bias, precisando anche la possibilità ed i limiti secondo i quali i fornitori dei sistemi di intelligenza artificiale ad alto rischio possono far uso di dataset comprendenti dati sensibili.
Come risulta dal documento conclusivo dell’indagine conoscitiva curata dall’AGCOM, AGCM e Autorità garante della protezione dei dati personali, avente ad oggetto i “Big Data”, i Big Data giocano ad oggi un ruolo da protagonista, tanto da essere spesso indicati come “nuovo oro”. Hanno cinque principali caratteristiche che li contraddistinguono rispetto ai dati ordinari, denominate “5V”:
§ Volume: elemento quantitativo/massivo dei dati;
§ Velocità: capacità di essere raccolti ed estratti con modalità vicina al tempo reale (latency e throughput);
§ Varietà: differenziazione nella tipologia dei dati estratti;
§ Variabilità: il contenuto dei dati muta di significato a seconda dell’analisi a cui è sottoposto;
§ Valore: idoneità ad estrarre un valore/significato dai dati o dalla loro analisi.
A queste, alcuni studiosi aggiungono due ulteriori caratteri, in grado di rendere ancora più fruibili i dataset:
§ Visualizzazione: consiste nella necessità di specifiche competenze nella realizzazione di strumenti in grado di presentare in maniera comprensibile i risultati dell’estrazione/analisi;
§ Veridicità: corrisponde all’accuratezza dei dati in relazione alla sempre maggiore complessità dei dataset.
Anche i metadati, come precisa, tra gli altri, anche il documento della Fondazione Leonardo, avente ad oggetto Statuto etico e giuridico dell’Intelligenza artificiale, giocano un ruolo importante nella gestione degli archivi. Un metadato (dal greco ???? "oltre, dopo, per mezzo" e dal latino datum "informazione") è un'informazione che descrive un insieme di dati. Un esempio tipico di metadati è costituito dalla scheda del catalogo di una biblioteca, la quale contiene informazioni circa il contenuto e la posizione di un libro, cioè dati riguardanti più informazioni che si riferiscono al libro. Un altro contenuto tipico dei metadati può essere la fonte o l'autore dell'insieme di dati descritto, oppure le modalità d'accesso con le eventuali limitazioni. In questa categoria, rientrano anche i dati aggiunti all'insieme delle informazioni per altri scopi. Ad esempio, se alla scheda del libro della biblioteca aggiungo un ID, ossia un identificatore univoco, quest'ultimo è un metadato (data about data).
Sul tema dei dati, la Commissione europea ha promosso nel 2018 la formazione di un gruppo di esperti, che ha elaborato un documento intitolato “Turning FAIR in to reality”. La sigla FAIR è l’acronimo di Findable, Accessible, Interoperable, Reusable. Si tratta di principi che sfociano in una serie di prescrizioni per la promozione di un responsabile impiego dei dati, previa adeguata conservazione. Si riportano di seguito le principali:
§ Per essere rintracciabili (findable):
Ø i dati devono avere un unico e permanente codice identificatore;
Ø i dati sono raccolti con ricchi metadati;
Ø i metadati includono esplicitamente e con chiarezza il codice identificatore dei dati che contengono;
§ Per essere accessibili (accessible):
Ø i (meta)dati sono rintracciabili con il loro codice utilizzando un protocollo di comunicazione standardizzato;
Ø il protocollo è gratuito, aperto e universalmente implementabile;
Ø il protocollo autorizza una procedura di autenticazione o autorizzazione, dove necessario;
Ø i metadati restano accessibili, anche quando i dati non sono più disponibili;
§ Per essere interoperativi (interoperable):
Ø i (meta)dati usano un linguaggio formale, accessibile, condiviso e ampiamente applicabile per la rappresentazione delle conoscenze;
Ø i (meta)dati usano un vocabolario che segue i principi FAIR;
Ø i (meta)dati includono riferimenti qualificati ad altri (meta)dati;
§ Per essere riutilizzabili (reusable):
Ø i (meta)dati sono riccamente descritti con una pluralità di accurati e rilevanti attributi;
Ø i (meta)dati sono rilasciati con una chiara e accessibile licenza per l’accesso;
Ø i (meta)dati sono associati alla provenienza;
Ø i (meta)dati rispettano gli standard comunitari di dominio.
Tra le varie classificazioni dei dati, si ricorda, a livello italiano, quella proposta dall’AGID nel “Libro Bianco dell’IA a servizio del cittadino”, che riporta le principali tipologie di dati sfruttabili dai sistemi di intelligenza artificiale:
§
Dati osservazionali;
§
Dati sperimentali di laboratorio;
§
Dati relativi a simulazioni al calcolatore;
§
Dati relativi ad analisi di testi;
§
Oggetti fisici o reperti.
Le novità prescritte dalla giurisprudenza hanno trovato un riconoscimento normativo grazie a due atti:
(1)
il Regolamento 2016/679 UE, concernente "la tutela delle persone fisiche con riguardo al trattamento dei dati personali e la libera circolazione di tali dati" (in inglese indicato con la sigla GDPR), volto a disciplinare i trattamenti di dati personali sia nel settore privato sia nel settore pubblico, e destinato a sostituire la Direttiva 95/46. Il Regolamento UE, entrato in vigore il 25 maggio 2016, reca una disciplina direttamente esecutiva nell'ordinamento degli Stati membri a partire dal 25 maggio 2018.
(2)
la Direttiva 2016/680/UE relativa alla protezione delle persone fisiche con riguardo al trattamento dei dati personali da parte delle autorità competenti a fini di prevenzione, indagine, accertamento e perseguimento di reati o esecuzione di sanzioni penali, nonché alla libera circolazione di tali dati.
Il Regolamento Generale sulla Protezione dei Dati (UE) n. 2016/679 Il regolamento contiene all’interno dell’art. 4 un insieme di definizioni. Di seguito si riportano quelle più rilevanti ai fini dello studio dell’intelligenza artificiale: dato personale: “qualsiasi informazione riguardante una persona fisica identificata o identificabile); si considera identificabile la persona fisica che può essere identificata, direttamente o indirettamente, con particolare riferimento a un identificativo come il nome, un numero di identificazione, dati relativi all'ubicazione, un identificativo online o a uno o più elementi caratteristici della sua identità fisica, fisiologica, genetica, psichica, economica, culturale o sociale” (n.1); profilazione: “qualsiasi forma di trattamento automatizzato di dati personali consistente nell'utilizzo di tali dati personali per valutare determinati aspetti personali relativi a una persona fisica, in particolare per analizzare o prevedere aspetti riguardanti il rendimento professionale, la situazione economica, la salute, le preferenze personali, gli interessi, l'affidabilità, il comportamento, l'ubicazione o gli spostamenti di detta persona fisica” (n.4); dati genetici: “i dati personali relativi alle caratteristiche genetiche ereditarie o acquisite di una persona fisica che forniscono informazioni univoche sulla fisiologia o sulla salute di detta persona fisica, e che risultano in particolare dall'analisi di un campione biologico della persona fisica in questione” (n.13); dati biometrici: “i dati personali ottenuti da un trattamento tecnico specifico relativi alle caratteristiche fisiche, fisiologiche o comportamentali di una persona fisica che ne consentono o confermano l'identificazione univoca, quali l'immagine facciale o i dati dattiloscopici” (n.14); dati relativi alla salute: “i dati personali attinenti alla salute fisica o mentale di una persona fisica, compresa la prestazione di servizi di assistenza sanitaria, che rivelano informazioni relative al suo stato di salute” (n.15); rappresentante: “la persona fisica o giuridica stabilita nell'Unione che, designata dal titolare del trattamento o dal responsabile del trattamento per iscritto ai sensi dell'articolo 27, li rappresenta per quanto riguarda gli obblighi rispettivi a norma del presente regolamento” (n.17); autorità di controllo interessata: “un'autorità di controllo interessata dal trattamento di dati personali in quanto:
a) il titolare del trattamento o il responsabile del trattamento è stabilito sul territorio dello Stato membro di tale autorità di controllo;
b) gli interessati che risiedono nello Stato membro dell'autorità di controllo sono o sono probabilmente influenzati in modo sostanziale dal trattamento; oppure
c) un reclamo è stato proposto a tale autorità di controllo” (n.22); trattamento transfrontaliero: “a) trattamento di dati personali che ha luogo nell'ambito delle attività di stabilimenti in più di uno Stato membro di un titolare del trattamento o responsabile del trattamento nell'Unione ove il titolare del trattamento o il responsabile del trattamento siano stabiliti in più di uno Stato membro; oppure
b) trattamento di dati personali che ha luogo nell'ambito delle attività di un unico stabilimento di un titolare del trattamento o responsabile del trattamento nell'Unione, ma che incide o probabilmente incide in modo sostanziale su interessati in più di uno Stato membro” (n.23). |
Ai fini dello studio dell’intelligenza artificiale, è necessario soffermarsi sulle novità principali introdotte nell’ordinamento europeo dal Regolamento GDPR, che riguardano:
§
l'ambito di applicazione territoriale: ciò che conta è il soggetto a cui siano riferibili i dati. Se si tratta di un cittadino europeo, è sottoposto alla normativa europea anche il gestore, anche se questi è stabilito in confini extra-comunitari;
§
la liceità del trattamento è ancorata a due requisiti alternativi: la necessità del trattamento, o il consenso dell'interessato. Il consenso dei minori può essere validamente espresso a partire dai 16 anni (derogabile da parte degli Stati purché non al di sotto della soglia limite dei 13 anni); prima di tale età occorre raccogliere il consenso dei genitori o di chi ne fa le veci;
§
il trattamento di "particolari categorie di dati", corrispondenti sostanzialmente a quelli che nel nostro ordinamento erano definiti come "sensibili e giudiziari". Con particolare riferimento al trattamento di dati genetici, biometrici e relativi alla salute, è consentito agli Stati membri di introdurre disposizioni più stringenti (art. 9);
§
l'espressa previsione diritto all'oblio (ossia alla cancellazione definitiva dei dati trattati e conservati dal titolare del trattamento) e del diritto alla portabilità dei dati (consistente nella richiesta di trasferimento di dati da un titolare del trattamento ad un altro). Per l’esercizio di quest’ultimo diritto è comunque necessaria la fattibilità tecnica (art. 20 par. 2), da valutare caso per caso tenendo presente che ciò che la norma richiede è che i sistemi siano interoperabili e non necessariamente compatibili;
§
la "responsabilizzazione" (accountability) del titolare del trattamento e del responsabile del trattamento. Essa è basata sulla concreta adozione di misure finalizzate ad assicurare l'applicazione del regolamento; viene affidato ai titolari il compito di decidere autonomamente le modalità, le garanzie e i limiti del trattamento dei dati personali;
§
il concetto di pseudonomizzazione del dato personale, che diventa non direttamente riconducibile ad una persona fisica se non mediante l’impiego di informazioni aggiuntive (art. 32);
§
l'introduzione del concetto di protezione dei dati personali "by design" e "by default". Con queste espressioni si intende la necessità per i titolari di adottare adeguate misure a protezione dei dati, sia al momento della loro raccolta, che per tutta la durata del trattamento, e di usarli secondo le finalità per cui gli interessati hanno prestato il loro consenso;
§
il c.d. data breach, ossia la previsione, in capo al titolare, di un obbligo di notifica all'autorità di controllo e di comunicazione all'interessato della presenza di violazioni di dati personali, compromissorie delle libertà e dei diritti dei soggetti interessati;
§
l’analisi e la preventiva valutazione del rischio inerente al trattamento. All'esito della stessa, il titolare potrà decidere se iniziare il trattamento ovvero consultare l'autorità di controllo competente. Quest’ultima potrà indicare le misure ulteriori eventualmente da implementare a cura del titolare;
§
l’introduzione del Data protection officer con riguardo agli enti pubblici e agli enti privati che trattino dati di natura delicata o monitorino su larga scala e in maniera sistematica gli individui;
§
sanzioni amministrative pecuniarie per una serie di violazioni, espressamente indicate dal Regolamento UE. Sono particolarmente elevate (fino ad un massimo di € 20.000.000 o, nel caso di imprese, fino al 4% del fatturato annuo complessivo) ma definite solo nella misura massima, lasciando ampi spazi di discrezionalità alle autorità di controllo.
Un’ulteriore previsione significativa è contenuta all’interno dell’articolo 22. Il terzo paragrafo stabilisce che il responsabile del trattamento, ovvero, il suo “titolare [...] attua[no] misure appropriate per tutelare i diritti, le libertà e i legittimi interessi dell’interessato, almeno il diritto di ottenere l’intervento umano da parte del titolare del trattamento, di esprimere la propria opinione e di contestare la decisione”. L’ultimo inciso, afferente all’eventualità di contestazione del trattamento da parte dell’interessato, pone la questione della “spiegabilità”, ovvero se esista un diritto ex post alla spiegazione per tale soggetto e un corrispettivo obbligo per il titolare del trattamento di fornire ragioni specifiche del perché, ad esempio, un sistema di intelligenza artificiale abbia negato una certa operazione. La risposta sembra dover essere affermativa: all’interessato non deve essere fornita necessariamente una spiegazione complessa sugli algoritmi impiegati nel trattamento, ma tale soggetto deve essere sufficientemente informato al fine di comprendere le ragioni della decisione. L’interessato deve essere posto dunque nelle condizioni di essere a conoscenza, anche sotto l’aspetto etico e giuridico, di come l’algoritmo abbia funzionato.
A completamento del quadro vi è però il principio di responsabilizzazione (art. 5), in base al quale è il titolare a decidere misure organizzative e tecniche per il rispetto dei principi fondamentali del trattamento (par. 2); è sempre il titolare a rispondere degli eventuali danni che sorgano da errori gestionali.
Tale previsione si pone in contrasto rispetto a una piena “spiegabilità” dei meccanismi. Nel caso in cui l’interessato subisca dei danni dal trattamento dei dati attuato da un algoritmo di intelligenza artificiale da lui non conosciuto sul piano tecnico, il titolare risponderà comunque, nonostante l’interessato abbia dato il proprio consenso (non informato) al trattamento. Il consenso finisce dunque per non avere alcun tipo di valore: questo perché il legislatore europeo considera l’attività di trattamento talmente complessa e rischiosa da risultare difficilmente comprensibile per l’interessato. È il titolare l’unico soggetto a conoscere i veri rischi derivanti dal trattamento dei dati personali ed è al contempo l’unico a rispondere degli eventuali danni.
L’applicazione delle previsioni contenute nel Regolamento è stata prevista nel nostro ordinamento con la delega contenuta nell’art. 13 della legge n. 163 del 2017 che ha poi trovato attuazione con il d.lgs. n. 101/2018. Il Codice della privacy è stato totalmente rivisto nella sua struttura nel tentativo di adattare al nostro ordinamento quanto previsto dal regolamento. A tal proposito, si riporta la ridefinizione di alcune categorie di dati attuata nella prima parte:
§
la ridefinizione della disciplina dei c.d. “dati sensibili”. Questa classe è assorbita nella definizione di «categorie particolari di dati personali». In generale, il trattamento di questi dati - che sostanzialmente sono gli stessi già definiti nella vecchia formulazione come "sensibili" con l'aggiunta dei dati genetici, biometrici e relativi all'orientamento sessuale - è vietato, a meno che non trovi fondamento nel consenso esplicito dell'interessato ovvero nella necessità del trattamento stesso per una serie di motivi tassativamente elencati. L’articolo 2-sexies del Codice disciplina il trattamento necessario per motivi di interesse pubblico rilevante delle categorie particolari di dati personali, consentendolo solo in presenza di un fondamento legislativo o regolamentare che specifichi i tipi di dati che possono essere trattati, le operazioni eseguibili e il motivo di interesse pubblico rilevante. Tra i dati particolari si colloca anche la categoria dei dati genetici, biometrici e relativi alla salute. Per questi, il regolamento UE consente agli Stati membri di mantenere o introdurre ulteriori condizioni, comprese limitazioni. A tal fine, il nuovo articolo 2-septies prevede che il trattamento di questi dati sia subordinato all'osservanza di misure di garanzia, stabilite dal Garante con provvedimento adottato con cadenza almeno biennale, a seguito di consultazione pubblica. Lo stesso articolo, in relazione esclusiva ai dati genetici ed a quelli relativi ad ambito sanitario, diagnostico e alle prescrizioni di medicinali, prevede che nell'ambito delle misure di garanzia sia possibile anche, in caso di particolare ed elevato livello di rischio, introdurre il consenso al trattamento come ulteriore misura di protezione dei diritti dell'interessato.
§
la categoria dei dati giudiziari è sostituita dai dati relativi a condanne penali e reati, il cui trattamento può essere svolto in base alle specifiche norme del Regolamento e al nuovo articolo 2-octies del Codice. In particolare, anche per questi dati vi è necessità che il trattamento abbia un fondamento normativo, in grado di autorizzarlo garantendo in maniera appropriata i diritti degli interessati. In mancanza dello stesso, era prevista l’emanazione di un decreto del Ministro della Giustizia entro 18 mesi dall’entrata in vigore del regolamento. Tuttavia, ancora oggi l’atto non è stato emanato.
Inoltre, sono significative le modifiche alla Parte II del Codice della privacy, dedicata al trattamento dei dati personali negli specifici settori esecutivi di un compito di interesse pubblico o connesso all'esercizio di pubblici poteri (articoli da 3 a 12). Per questi campi, è consentito agli Stati di prevedere una disciplina del trattamento dati più specifica e stringente. A tal fine, gli articoli da 4 a 12 intervengono sui vari titoli del Codice, adeguando le relative disposizioni al Regolamento. Si tratta in particolare dei trattamenti: per fini di sicurezza nazionale o difesa (articolo 4); in ambito pubblico (articolo 5); in ambito sanitario (articolo 6); per finalità di istruzione (articolo 7); a fini di archiviazione nel pubblico interesse, di ricerca scientifica o storica o a fini statistici (articolo 8) nell'ambito del rapporto di lavoro (articolo 9) relativi alla banca dati dei sinistri (articolo 10); relativi alle comunicazioni elettroniche (articolo 11); nell'ambito dell'attività giornalistica e della manifestazione del pensiero (articolo 12).
Il regolamento GDPR ha infine predisposto delle deroghe, rispetto alle ordinarie prescrizioni, per il trattamento ai fini di archiviazione nel pubblico interesse (art. 89). Per pubblico interesse si intende l'interesse proprio della pluralità o collettività di individui costituente la comunità dell'ordinamento giuridico di riferimento. Tale nozione assume particolare rilevanza nell’ambito dell’archiviazione attuata dalla pubblica amministrazione, che ha potenzialità di raccolta e gestione di dati personali assai ampie. Ciò non vuol dire che il trattamento e la conservazione per tali finalità avvengano senza garanzie o cautele di alcuna sorta: lo stesso art. 89 prescrive infatti l’impiego di misure tecniche e organizzative adeguate. Ad ogni modo, l’archiviazione per il pubblico interesse consente in diversi casi l’adozione di una differente disciplina rispetto a quella ordinaria. Ad esempio, per le categorie di dati menzionate all’interno dell’art. 9 del Regolamento [35] , non è di norma autorizzato il trattamento: le finalità di archiviazione nel pubblico interesse costituiscono una delle ipotesi derogatorie. Allo stesso modo, tale eccezione ricompare rispetto alla normale disciplina compresa tra gli artt. 14 e 21, attinenti – tra i vari aspetti - i diritti di informazione sul trattamento e il diritto di accesso, rettifica e cancellazione dei dati per l’interessato.
Le indicazioni del Regolamento GDPR sono state recepite anche nel nostro ordinamento con una modifica dell’art. 61 del Codice della Privacy, che dopo l’intervento riformatore del decreto legislativo n. 101 del 2018 ha prescritto l’adozione di particolari regole deontologiche per il trattamento dei dati provenienti da archivi, registri, elenchi, atti e documenti detenuti da soggetti pubblici, sempre con la predisposizione di garanzie adeguate. Si stabilisce dunque anche in questa circostanza un differente trattamento per questa tipologia di dati; le regole deontologiche sono state emanate dal Garante per la Privacy il 18 dicembre 2018 e sono state trasposte in un decreto del Ministro della Giustizia il 15 marzo 2019.
L'Internet degli oggetti, l'intelligenza artificiale e l'apprendimento automatico rappresentano fonti importanti di dati non personali, tra i quali figurano ad esempio gli insiemi di dati aggregati e anonimizzati usati per l'analisi, i dati sull'agricoltura di precisione che possono contribuire a monitorare e ottimizzare l'uso di pesticidi e acqua o i dati sulle esigenze di manutenzione delle macchine industriali, i dati sulla sicurezza delle infrastrutture, ecc.
I processi automatizzati di produzione industriale impiegano in misura crescente questo genere di dati. Al contempo, l’interazione tra macchine comporta un costante scambio di una serie di elementi non sempre catalogabili come dati personali. Basti pensare alla mobilità autonoma delle automobili, che interagiscono fra loro mediante informazioni afferenti le condizioni stradali e le caratteristiche fisiche dei pedoni.
Risultata quindi necessaria la definizione e delimitazione dei dati non personali rispetto ai dati normati mediante il Regolamento 2016/679 e il possibile “passaggio” dall’una all’altra categoria. Un dato, precedentemente anonimizzato e non riconducibile a nessuna persona fisica, potrebbe infatti essere attribuito ad un individuo determinato, divenendo a tutti gli effetti un dato personale. Nei considerando iniziali, il legislatore europeo paventa anche questa eventualità tuttavia la definizione dei dati non personali è quella di dati non riconducibili all’art. 4 del regolamento GDPR, con la conseguenza che i confini tra le due classi sono tutt’oggi sfumati.
Anche per questo, il Regolamento 2018/1807 sottolinea l’importanza di un’applicazione congiunta e coordinata dei due Regolamenti, in modo da costituire un sistema per quanto possibile ottimale (art. 8).
Le definizioni contenute nell’art. 3 del regolamento 2018/1087:
1.
«dati»: i dati diversi dai dati personali definiti all'articolo 4, punto 1, del regolamento (UE) 2016/679;
2.
«trattamento»: qualsiasi operazione o insieme di operazioni compiute su dati o insiemi di dati in formato elettronico, con o senza l'ausilio di strumenti automatizzati, come la raccolta, la registrazione, l'organizzazione, la strutturazione, la conservazione, l'adattamento o la modifica, il reperimento, la consultazione, l'uso, la comunicazione mediante trasmissione, diffusione o qualsiasi altra forma di messa a disposizione, l'allineamento o l'interconnessione, la limitazione, la cancellazione o la distruzione;
3.
«progetto di atto»: un testo redatto con l'obiettivo di farlo adottare come legge, regolamento o disposizione amministrativa di carattere generale; il testo si trova ancora in fase di preparazione e può ancora essere oggetto di modifiche sostanziali;
4.
«fornitore di servizi»: una persona fisica o giuridica che fornisce servizi di trattamento di dati;
5.
«obbligo di localizzazione dei dati»: qualsiasi obbligo, divieto, condizione, limite o altro requisito, previsto dalle disposizioni legislative, regolamentari o amministrative di uno Stato membro o risultante dalle prassi amministrative generali e coerenti in uno Stato membro e negli organismi di diritto pubblico, anche nell'ambito degli appalti pubblici, fatta salva la direttiva 2014/24/UE, che impone di effettuare il trattamento di dati nel territorio di un determinato Stato membro o che ostacola il trattamento di dati in un altro Stato membro;
6.
«autorità competente»: un'autorità di uno Stato membro o qualsiasi altro ente autorizzato, in virtù del diritto nazionale, a esercitare una funzione pubblica o a esercitare i pubblici poteri, che ha la facoltà di ottenere accesso ai dati trattati da una persona fisica o giuridica ai fini dell'esercizio delle sue funzioni ufficiali, come previsto dal diritto dell'Unione o nazionale;
7.
«utente»: una persona fisica o giuridica, compresi un'autorità pubblica e un organismo di diritto pubblico, che utilizza o richiede servizi di trattamento di dati;
8. «utente professionale»: una persona fisica o giuridica, compresi un'autorità pubblica e un organismo di diritto pubblico, che utilizza o richiede servizi di trattamento di dati per fini connessi alla sua attività commerciale, industriale, artigianale, professionale o a una sua funzione. |
Sono due i principali aspetti su cui si sofferma il Regolamento:
a)
la localizzazione e la portabilità dei dati (artt. 4 e 6);
i)
localizzazione (art. 4): viene vietata la localizzazione dei dati eccetto che per finalità di pubblica sicurezza nel rispetto del principio di proporzionalità. Entro il 31 maggio 2021, gli Stati membri devono abrogare qualsiasi obbligo di localizzazione dei dati vigente, stabilito da una legge, da un regolamento o da una disposizione amministrativa di carattere generale che non sia conforme a tale articolo. È possibile per gli Stati membri comunicare il mantenimento di normative che stabiliscano un obbligo di localizzazione compatibile con l’art. 4, purché vi sia un preventivo vaglio di compatibilità effettuato dalla Commissione entro 6 mesi dalla comunicazione. Le discipline rimaste in vigore dovranno poi essere inserite all’interno di un portale online di carattere nazionale, da mantenere costantemente aggiornato;
ii)
portabilità (art. 6): la Commissione incoraggia la creazione di “codici di condotta” per contribuire a un'economia dei dati competitiva, basata sui principi della trasparenza e dell'interoperabilità. Risulta pertanto fondamentale promuovere un’informata e trasparente portabilità dei dati da un gestore all’altro. Tali meccanismi devono essere graduali e certificati mediante uniformi standard qualitativi.
b)
la messa a disposizione dei dati alle autorità competenti e la cooperazione tra le stesse (artt. 5 e 7)
i)
messa a disposizione dei dati alle autorità competenti (art. 5): il regolamento non pregiudica la facoltà delle autorità competenti di chiedere od ottenere l'accesso a dati ai fini dell'esercizio delle loro funzioni ufficiali. A tal proposito, queste possono promuovere le forme di cooperazione previste dal successivo art.7, laddove i rapporti non siano stati regolamentati da antecedenti accordi internazionali;
ii)
cooperazione (art. 7): ogni Stato deve designare un “punto di contatto unico”, designato a interfacciarsi con i punti di contatto degli altri Stati membri. Mediante il loro tramite, viene avviata la procedura di collaborazione. Tempestivamente ed entro un termine proporzionato alle richieste, ciascuna autorità è tenuta a fornire le informazioni richieste.
Da ultimo, il paragrafo 1 dell’articolo 2 stabilisce che sono regolate le attività di trattamento di dati elettronici diversi dai dati personali che:
a)
“sono fornite come servizio ad utenti residenti o stabiliti nell'Unione, indipendentemente dal fatto che il fornitore di servizi sia o non sia stabilito nell'Unione”. In questo gruppo di ipotesi rientra il caso dei fornitori di servizi cloud aventi sede in territorio extraeuropeo ma operanti a favore di clienti residenti o stabiliti nell’UE. Le infrastrutture non devono essere necessariamente situate nell’Unione europea, ma è sufficiente affittare lo spazio sul server a favore di soggetti europei.
b)
“sono effettuate da una persona fisica o giuridica residente o stabilita nell'Unione per le proprie esigenze”. Gli operatori sono liberi di centralizzare l’archiviazione e il trattamento dei dati in un unico server stabilito all’interno di un singolo Stato membro, anche qualora svolgano attività in altri Paesi europei.
La comunicazione della Commissione al Parlamento europeo e al Consiglio del 29 maggio 2019 (COM (2019) 250), partendo dalle statuizioni dei due Regolamenti sopra descritti, contribuisce in maniera significativa a fornire significative indicazioni su alcuni punti cruciali della regolamentazione chiarendo il rapporto tra dati personali e non personali e fornendo alcuni elementi di precisazione sia con riferimento ai primi che, soprattutto, ai secondi.
Le linee guida vertono in modo particolare:
1.
sui concetti di dati personali e dati non personali;
2.
sui principi della libera circolazione dei dati e del divieto di qualsiasi obbligo di localizzazione dei dati ai sensi di entrambi i regolamenti;
3.
sulla nozione di portabilità dei dati secondo il regolamento sulla libera circolazione dei dati non personali.
1.
Dati personali e non
La definizione di dati personali nella comunicazione non presenta particolari elementi di precisazione rispetto a quanto delineato nell’art. 4 del Regolamento GDPR. Viene tuttavia delineato il concetto di pseudonimizzazione, che consiste nel trattamento dei dati personali in modo tale che non sia più possibile attribuirli a un interessato specifico senza l'utilizzo di informazioni aggiuntive. Queste informazioni aggiuntive sono conservate separatamente e protette da misure tecniche o organizzative (ad es. la cifratura). Tuttavia tali dati vengono comunque considerati come personali: sono infatti informazioni relative ed attribuibili a un soggetto identificabile.
I dati non personali vengono invece identificati attraverso due criteri:
a)
in primo luogo sono dati che in origine non si riferiscono a una persona fisica identificata o identificabile, come le informazioni sulle condizioni metereologiche prodotte da sensori installati sulle turbine eoliche o i dati sulle esigenze di manutenzione delle macchine industriali;
b)
in secundis, possono essere dati che originariamente erano personali ma sono stati anonimizzati. L’anonimizzazione è diversa dalla pseudonomizzazione, poiché i dati risultanti non sono attribuibili ad una persona specifica neanche tramite informazioni aggiuntive. Pertanto sono dati non personali; un esempio sono i dati utilizzati nelle statistiche o nelle relazioni sulle vendite. L’anonimizzazione può poi avvenire con due modalità: randomizzazione e generalizzazione. Con la prima, si amplia il “rumore statistico” dei dati, in quanto un’informazione riferibile ad un singolo membro si “mescola” con quelle di altri appartenenti allo stesso gruppo. La seconda modalità consiste nel modificare la scala di rappresentazione di determinati attributi: per esempio, in un dataset demografico si può scegliere di utilizzare, al posto del CAP (codice di avviamento postale che unito ad altre informazioni anagrafiche permette con elevata probabilità di arrivare all’isolamento dell’informazione), un codice geografico su più ampia scala che trasformi il riferimento a una ristretta area geografica (quartiere, città) in un dato riferibile a una molteplicità di luoghi (provincia, regione…), con ciò abbattendo drasticamente la probabilità di reidentificare i soggetti cui si riferiscano i dati elaborati.
Gli insiemi di dati che contengono i nomi e i dati di contatto delle persone giuridiche sono in linea di principio dati non personali. Tuttavia, in alcuni casi specifici, possono costituire dati personali. Questo si verifica se, ad esempio, il nome della persona giuridica corrisponde a quello della persona fisica che la possiede o se le informazioni si riferiscono a una persona fisica identificata o identificabile.
Una previsione importante della comunicazione riguarda i cosiddetti dati misti. Si tratta di quegli insiemi di informazioni costituite sia da dati personali che da dati non personali. Nell’economia dei dati, questi sono particolarmente utilizzati all’interno delle tecnologie di Internet of Things e di intelligenza artificiale. Tra gli esempi di dati misti vi sono i documenti fiscali delle imprese, che comprendono nominativi e numeri di telefono degli amministratori delegati; oppure in ambito bancario, possono essere dati misti da un lato quelli che contengono i dettagli delle transazioni (come servizi di pagamento, applicazioni di partner relationship management (PRM) e contratti di prestito), dall’altro quelli impiegati in servizi di gestione delle relazioni con i clienti (customer relationship management - CRM) forniti da soggetti terzi. Con riferimento al trattamento di questi dati, viene dato conto nella comunicazione di una tripartizione:
§
il regolamento sulla libera circolazione dei dati non personali si applica alla parte dell'insieme contenente i dati non personali;
§
la disposizione sulla libera circolazione dei dati del Regolamento 2016/679 UE si applica alla parte dell'insieme contenente i dati personali;
§
se le parti di dati personali e di dati non personali sono "indissolubilmente legate", i diritti e gli obblighi in materia di protezione dei dati derivanti dal Regolamento generale sulla protezione dei dati (2016/679 UE) si applicano pienamente all'insieme di dati misti, anche quando i dati personali rappresentano soltanto una piccola parte dell'insieme di dati. La dizione di “indissolubilmente legati” non è definita dai Regolamenti precedentemente analizzati. Tuttavia, essa denota una situazione in cui un insieme di dati contiene sia dati personali che dati non personali, la cui separazione sarebbe impossibile sul piano tecnico oppure economicamente sconveniente. Un caso sempre più frequente di dati misti “inseparabili” è costituito dai dati sanitari: cartelle cliniche elettroniche, sperimentazioni cliniche o insiemi di dati raccolti dalle varie applicazioni mobili per la salute e il benessere sono indistintamente trattati dai sistemi tecnologici.
2.
Libera circolazione dei dati e divieto di qualsiasi obbligo di localizzazione dei dati
La libera circolazione dei dati non personali comporta che la localizzazione dei dati sia in ogni caso vietata, eccetto che questa venga motivata per motivi di sicurezza pubblica e avvenga nel rispetto dei principi di proporzionalità. Qualora si prescriva un obbligo di localizzazione, questo può essere diretto o indiretto. Il primo si ha con l’imposizione di conservare i dati in uno specifico server situato in uno degli Stati membri o con l’obbligo di conformare i dati a specifici formati nazionali. Il secondo invece può presentarsi sotto forme diverse, come la prescrizione di impiegare dispositivi tecnologici certificati o omologati in un determinato Stato membro o altri requisiti che rendono più difficile trattare dati al di fuori di una determinata area geografica all'interno dell'Unione. Tali obblighi sono comunque vincolati alle finalità di pubblica sicurezza, che riguardano sia la protezione interna o esterna di uno Stato membro, così come le questioni di incolumità pubblica relative all’accertamento e al perseguimento di reati.
Come conseguenza, si afferma il principio di libera circolazione dei dati personali e non personali. Le uniche possibili limitazioni sono quelle riconosciute dal Regolamento GDPR, che - in materia di trattamento di dati biometrici, genetici o sanitari - autorizza gli Stati membri a prescrivere una disciplina più rigida. Non è ad ogni modo consentito ostacolare la libera circolazione dei dati personali in ambito europeo, applicando tali limitazioni nazionali al trattamento transfrontaliero.
3.
Portabilità dei dati
Uno degli obiettivi principali posti dal Regolamento 2018/1087 UE è la limitazione delle pratiche di “vendor lock in”. Queste si verificano nel momento in cui gli utenti non siano in grado di cambiare il fornitore di servizi, in quanto i loro dati sono “bloccati” nel sistema del provider a causa di formati di dati o contratti penalizzanti. La libera scelta da parte degli utenti dipende quindi fortemente dalla promozione della portabilità dei dati. Pertanto, l’art. 6 del Regolamento sulla libera circolazione dei dati non personali ha incoraggiato la realizzazione di codici di autoregolamentazione unionali. Questi dovrebbero tenere conto di numerosi aspetti, quali:
§
le migliori prassi per agevolare il cambio di fornitore di servizi e la portabilità dei dati in un formato strutturato, di uso comune e leggibile elettronicamente;
§
gli obblighi d'informazione minimi per garantire che gli utenti professionali ricevano informazioni sufficientemente dettagliate e chiare prima della conclusione di un contratto, per quanto riguarda le procedure e i requisiti tecnici, i tempi e gli oneri applicati nel caso in cui un utente professionale intenda cambiare fornitore di servizi o ritrasferire i dati nei propri sistemi informatici;
§
gli approcci in materia di sistemi di certificazione per consentire un miglior confronto dei servizi cloud;
§
le tabelle di marcia in materia di comunicazione per sensibilizzare a proposito dei codici di condotta.
Al momento sono operativi dei gruppi di lavoro promossi direttamente dalla Commissione per la realizzazione di tali “codici di condotta”, a cui dovrebbero essere affiancate delle clausole contrattuali tipo. Tra i più interessanti, vi sono il gruppo di lavoro SWIPO, che si occupa specificatamente di portabilità dei dati e di cambio di fornitore di servizi, e il gruppo di lavoro CSPCERT, che lavora alla predisposizione di certificazione di sicurezza per i cloud. Il primo gruppo in particolare si propone la realizzazione di un unico atto che copra l’intero spettro dei servizi cloud: Infrastruttura come servizio (IaaS), Piattaforma come servizio (PaaS) e Software come servizio (SaaS). Al momento, sono già stati emanati una serie di codici di condotta nell’ambito dei servizi cloud, come:
§ Il codice di condotta per il cloud dell'UE, il cui sviluppo è stato agevolato dalla Commissione. È stato elaborato in collaborazione con il Cloud Select Industry Group (C-SIG) sulla base della Direttiva sulla protezione dei dati (95/46 CE) e successivamente del Regolamento generale sulla protezione dei dati (2016/679 UE). Questo codice riguarda l'intero spettro dei servizi cloud — Infrastruttura come servizio (IaaS), Piattaforma come servizio (PaaS) e Software come servizio (SaaS);
§ Il codice di condotta dei fornitori di servizi di infrastrutture cloud in Europa (CISPE), rivolto ai fornitori IaaS;
§ Il codice di condotta di Cloud Security Alliance (CSA) per la conformità al GPDR, che si rivolge a tutte le parti interessate nell'ambito del cloud computing e della legislazione europea sui dati personali.
Fatti salvi questi casi, la redazione di tali documenti spetta normalmente alle organizzazioni rappresentanti delle categorie specifiche di titolari e responsabili del trattamento, che devono sottoporre il progetto alla valutazione finale delle rispettive autorità di controllo. Queste ultime sono chiamate a collaborare con il comitato europeo per la protezione dei dati qualora le attività di trattamento coinvolgano diversi Stati membri.
La valutazione finale sull’applicazione del Regolamento 2018/1087 UE spetta alla Commissione entro il 29 novembre 2022.
Principi comuni nella gestione dei dati personali e non
|
§
Trasparenza;
§
Accessibilità;
§
Costante informazione e rapporto con il titolare del dato, anche ai fini della modifica delle informazioni;
§
Favorire il trattamento transfrontaliero;
§
Libera circolazione dei dati di qualsiasi tipologia;
§
Garantire la portabilità dei dati;
§
Centralità delle autorità di vigilanza;
§
Responsabilizzazione degli utenti ordinari e professionali;
§
Promuovere la sicurezza e un’ottima conservazione;
§
Attenzione alla progettazione delle banche dati;
§ Rafforzare la fiducia nel trattamento transfrontaliero dei dati mediante le certificazioni di sicurezza. |
Dopo l’emanazione del Regolamento 2016/679 e del Regolamento 2018/1087, l’Unione europea ha continuato ad emanare atti giuridici relativi alla gestione dei dati. Sono quattro i più rilevanti:
§
20 giugno 2019 - Direttiva (UE) 2019/1024 relativa all'apertura dei dati e al riutilizzo dell'informazione del settore pubblico – Parlamento europeo e Consiglio;
§
19 febbraio 2020 – Una strategia europea per i dati – Comunicazione della Commissione COM (2020) 66;
§
9 giugno 2020 – “Plasmare il futuro digitale dell’Europa” – conclusioni del Consiglio;
§
24 giugno 2020 - La protezione dei dati come pilastro dell'autonomia dei cittadini e dell'approccio dell'UE alla transizione digitale: due anni di applicazione del regolamento generale sulla protezione dei dati – Comunicazione della Commissione COM (2020) 264.
Le due Comunicazioni della Commissione sono i documenti che più si interessano ai risvolti della gestione dei dati per i sistemi di intelligenza artificiale. Di seguito si riportano due tabelle che sintetizzano i due atti. Per il primo atto, si è provveduto ad una ripartizione tra problemi attuali e strategie future; per il secondo, si procede ad un confronto tra il bilancio dei due anni di applicazione del GDPR e le azioni future da attuare.
Tabella 1
COM (2020) 66
|
|
Problemi
|
Strategie
|
1)
Disponibilità dei dati: I dati attualmente disponibili non sono sufficienti per un riutilizzo innovativo, ad esempio per lo sviluppo dell'intelligenza artificiale.
2)
Condivisione dei dati:
a)
G2B: da PA a imprese;
b)
B2B: tra imprese;
c)
B2G: da imprese a PA;
d)
G2G: tra autorità pubbliche.
3)
Scarsa qualità dei dati e interoperabilità: l'interoperabilità e la qualità dei dati, al pari della loro struttura, autenticità e integrità, sono fondamentali per lo sfruttamento del valore dei dati, in particolare nel contesto della diffusione dell'IA;
4)
Governance;
5)
Infrastrutture;
6)
Squilibrio in termini di potere di mercato;
7)
Competenze e spiegabilità;
8)
Cibersicurezza;
9)
Esercizio diritti individuali: Dato che quando utilizzano dispositivi IoT e servizi digitali i consumatori generano quantità sempre crescenti di dati, essi stessi possono essere esposti a rischi di discriminazione, pratiche sleali e effetti di dipendenza (c.d. "lock-in").
|
1)
Un quadro di governance intersettoriale per l'accesso ai dati e il loro utilizzo:
i)
Proposta di un quadro legislativo per la governance degli spazi comuni europei di dati (entro il 4º trimestre 2020). Coerentemente con i termini previsti, la proposta COM(2020) 767 final è stata presentata dalla Commissione europea il 25 novembre 2020.
ii)
Adozione di un atto di esecuzione sui set di dati di elevato valore (1º trimestre 2021).
iii)
Proposta, se del caso, di un atto normativo sui dati (2021).
iv)
Analisi dell'importanza dei dati nell'economia digitale (ad esempio mediante l'osservatorio dell'economia delle piattaforme online) e riesame dell'attuale quadro strategico nel contesto del pacchetto relativo alla legge sui servizi digitali (4º trimestre 2020).
2)
Abilitatori: investimenti nei dati e rafforzamento delle infrastrutture e delle capacità europee per l'hosting, l'elaborazione e l'utilizzo dei dati, l'interoperabilità:
i)
Investimento in un progetto ad alto impatto su spazi europei di dati che comprenda architetture per la condivisione dei dati (comprese norme per la condivisione dei dati, migliori pratiche e strumenti) e meccanismi di governance, nonché la federazione europea di infrastrutture cloud e servizi correlati affidabili ed efficienti sotto il profilo energetico, con l'obiettivo di promuovere investimenti combinati di 4-6 miliardi di EUR, di cui la Commissione intende investirne 2. Prima fase di attuazione prevista per il 2022.
ii)
Firma del protocollo d'intesa con gli Stati membri sulla federazione del cloud: il 15 ottobre 2020 i ministri delle Telecomunicazioni e del Digitale dei 27 Stati membri hanno sottoscritto la dichiarazione Building the next generation cloud for businesses and the public sector in the EU (obiettivo originario 3º trimestre 2020).
iii)
Avvio di un mercato europeo dei servizi cloud, che integri l'intera offerta di servizi cloud, 4º trimestre 2022.
iv)
Creazione di un codice dell'UE di (auto)regolamentazione del cloud, 2º trimestre 2022.
3)
Competenze: fornire strumenti alle persone, investire nelle competenze e nelle PMI:
i)
Presa in esame del rafforzamento del diritto alla portabilità per le persone, a norma dell'articolo 20 del GDPR, che conferisca loro un maggior controllo riguardo a chi possa avere accesso ai dati generati automaticamente e utilizzarli (eventualmente nel quadro della legge sui dati nel 2021).
4)
Spazi comuni europei di dati in settori strategici e ambiti di interesse pubblico.
|
Tabella 2
COM (2020) 264
|
|
Bilancio GDPR
|
Azioni future
|
§
Sviluppo di una buona collaborazione tra autorità nazionali di protezione mediante assistenza reciproca e meccanismo dello “sportello unico”;
§
Frammentazione nell’adattamento alle disposizioni del regolamento;
§
Persone sempre più consapevoli dei propri diritti in materia di accesso e conservazione dei dati;
§
Buona risposta del sistema all’emergenza COVID-19,
|
§
Nuove risorse e migliori relazioni tra autorità nazionali di protezione;
§
Miglioramento dell’applicazione del regolamento a PMI;
§
Messa a disposizione di un numero maggiore di strumenti per garantire ai soggetti il diritto alla portabilità;
§
Preparazione nel miglior modo possibile al massiccio sviluppo dei sistemi di IA;
§
Promozione del trasferimento dei dati a livello transfrontaliero, sviluppo della cooperazione internazionale;
§
Completamento da parte degli Stati membri dell’allineamento alle disposizioni del Regolamento;
§
Messa a disposizione di risorse economiche per i soggetti interessati, incentivando l’innovazione.
|
[1]
Luciano Floridi, La quarta rivoluzione: Come l'infosfera sta trasformando il mondo, pag. 4.
[2]
Tra gli altri, professoressa R. Cucchiara, Intelligenza artificiale una sfida per l’Italia Futura, presentato al Senato della Repubblica Commissioni Riunite 8° (Lavori Pubblici) e 10° (Industria), nell’ambito dell’audizione svolta l’8 luglio 2020, nell’ambito dell’indagine conoscitiva sull’intelligenza artificiale.
[3]
Con riferimento allo sviluppo dei supercomputer, l’Italia occupa un ruolo di primissimo piano, potendo vantarne due nella top 10 mondiale del giugno 2020 (HPC5 di ENI e Marconi-100 di Cineca).
[4]
Uno dei primi tentativi di delimitazione dell’intelligenza artificiale venne attuato da Somalvico, che nel 1987 la definì con i seguenti termini: “L'intelligenza artificiale è quella disciplina, appartenente all'informatica, che studia i fondamenti teorici, le metodologie e le tecniche che permettono di progettare sistemi hardware e sistemi di programmi software capaci di fornire all'elaboratore elettronico delle prestazioni che, a un osservatore comune, sembrerebbero essere di pertinenza esclusiva dell'intelligenza umana”. Le molteplici definizioni di intelligenza artificiale storicamente emerse e quelle utilizzate in anni più recenti dalle diverse istituzioni internazionali ed europee nonché dagli stati membri dell’Unione nei loro documenti ufficiali sono state riportate nel report dell’Ufficio Pubblicazioni dell’Unione europea “Definining Artificial Intelligence” (2020).
[5] Lo studio è stato completato nel mese di giugno 2020 https://www.europarl.europa.eu/RegData/etudes/STUD/2020/641547/EPRS_STU(2020)641547_EN.pdf.
[6]
Sebbene l’origine del problema relativo a un’intelligenza meccanica non possa non ricondursi all’articolo di Alan Turing del 1950, "Computing Machinery and Intelligence", con la celebre domanda “can machines think?”, la nascita del concetto di intelligenza artificiale è fissata al 1956, data nella quale il termine venne usato per la prima volta da John McCarthy durante una conferenza a Dartmouth, nella quale vennero presentati alcuni programmi già capaci di effettuare ragionamenti logici, in particolar modo legati alla matematica. Negli anni Sessanta vi furono importanti investimenti per lo sviluppo di tali software, che, in effetti, nel corso del decennio furono in grado di risolvere problemi sempre più complessi, e, proprio in questo periodo, venne sviluppato anche il primo linguaggio di programmazione specificamente utilizzato per l'intelligenza artificiale (il LISP), ideato proprio da John McCarthy. Tuttavia già dalla seconda metà degli anni Sessanta emerse chiaramente l'inidoneità di tali software ad avvicinarsi alla complessità del pensiero umano e soprattutto di far fronte all'esigenza, maturata nel corso delle ricerche, di individuare metodi per fare in modo che le macchine potessero elaborare delle soluzioni a problemi in base all'analisi di elementi dati giungendo a soluzioni differenti in relazione ai contesti. Ciò implicava la necessità di costruire una semantica che prevedesse la possibilità di programmare diverse possibilità previste da un ragionamento. Un primo elemento di evoluzione va ricondotto quindi alla nascita dei cosiddetti "sistemi esperti", che sono software che, a partire da una base dati caricata al loro interno, sono in grado di trovare soluzioni specifiche per determinati scenari essendo in grado di dedurre dall'input recepito, e sulla base di un motore inferenziale, soluzioni del problema tra più alternative possibili sulla base dello scenario e anche senza che tali elementi siano oggetto di specifica richiesta. È quindi possibile risalire al processo che ha portato il sistema ad adottare una soluzione piuttosto che un'altra (ossia la decisione può essere spiegata). Ciò portò in tempi relativamente contenuti allo sviluppo di macchine in grado di prendere decisioni particolarmente complesse anche se non "creative" posto che tali sistemi non sono in grado di aggiornare da soli il loro dominio di conoscenze. Nel periodo che va dalla nascita del concetto di intelligenza artificiale fino agli anni Novanta del secolo scorso questi sistemi, che rappresentano la “prima generazione” dell’intelligenza artificiale, sono stati essenzialmente le uniche applicazioni disponibili della stessa. I “sistemi esperti”, pur basandosi su approcci oggi in larga parte superati, restano tuttavia uno dei domini fondamentali e con le migliori performance nel campo dell’intelligenza artificiale. Ad essi si riferisce la cosiddetta fuzzy logic che consente di introdurre nelle inferenze l’elemento della probabilità consentendo al sistema di funzionare in domini nei quali alcune variabili non sono “certe”.
Si veda sul punto: Artificial intelligence: How does it work, why does it matter, and what can we do about it, pagg. 2-5.
[7]
Sul numero di dati prodotti dall’umanità si veda l’intervento nella Commissione IX della Camera dei deputati, del professore Mario Rasetti, nella seduta del 4 luglio 2019.
[8]
Per testare le capacità di ragionamento autonomo delle macchine uno degli strumenti di analisi tradizionali è il c.d. Test di Turing, che consiste nel sottoporre ad un essere umano e a un computer un medesimo set di domande: in base alle risposte fornite, dei giudici sono chiamati a scegliere se la risposta venga dalla persona fisica o dall’elaboratore. Al momento, nessuna macchina è stata in grado di superare il test: il massimo risultato è stato ottenuto da un calcolatore (denominato Eugene Goolstman), che è stato scambiato per una persona fisica dal 33% dei giudici di una competizione. Sulla validità di tale risultato, ottenuto durante la competizione di Milton Keynes nel 2012, sono sorte tuttavia molte controversie, poichè per esser valido il giudice deve aver errato con la medesima frequenza nella distinzione tra un uomo e una donna e un uomo e una macchina. Vi sono molteplici contest scientifici che attuano con cadenza annuale il test di Turing, come il premio Loebner. In tale occasione, non è mai avvenuto che due o più giudici abbiano scambiato un computer per un essere umano (tale evenienza verrebbe premiata con la medaglia di argento: la medaglia d’oro resta al momento un’utopia). Per maggiori approfondimenti L. FLORIDI, La quarta rivoluzione – come l’infosfera sta trasformando il mondo, Raffaello Cortina editore, collana Scienza e Idee, 2017.
[9]
Una chiara spiegazione del meccanismo di funzionamento e dei limiti degli strumenti di intelligenza artificiale applicati al linguaggio naturale si trova in Artificial intelligence: How does it work, why does it matter, and what can we do about it?, pag. 11.
[10]
Artificial intelligence: How does it work, why does it matter, and what can we do about it? Pag. 3-4. Di fatto il notevole miglioramento derivante dal machine learning dipende essenzialmente dalla grande disponibilità di dati “annotati” con i quali allenare gli algoritmi.
[11]
Le forme di apprendimento spesso si combinano. Da una prima fase supervisionata, che costituisce la base cognitiva iniziale, la macchina in fasi successive è in grado di compiere scelte autonome (ad esempio nelle IA presenti nei giochi, come AlphaGo, si tratta di apprendimento per rinforzo, nell'ambito di partite giocate anche contro se stessa dalla IA).
[12]
L'aumento dei livelli di astrazione è stato nel corso degli ultimi anni assai significativo. Imagenet, uno dei prodotti di deep learning nel 2015 riuscì a realizzare 152 livelli di astrazione, e questo consente alla macchina di classificare in maniera efficiente e gerarchizzata un numero estremamente ampio di informazioni, portando la capacità di comprensione della realtà dei computer a livelli inimmaginabili solo pochi anni fa, in quanto i computer possono in maniera del tutto automatica, riconoscere, elaborare e persino creare immagini, testi in maniera simile (ma ancora non identica quanto alla qualità dei risultati) a quanto fa l'uomo.
[13]
A differenza dei sistemi esperti che operano secondo una logica inferenziale, le reti neurali presentano un sistema di funzionamento talmente complesso che è assai difficile risalire ai processi che hanno portato all'assunzione di una decisione; ciò in considerazione del fatto che le reti neurali non hanno necessità di ricorrere in ogni caso ad un esperto di dominio che definisca le regole di apprendimento: esse deducono le regole dai dati che acquisiscono sulla base dell'apprendimento. Allo stesso tempo le reti neurali presentano, rispetto ai sistemi esperti, delle criticità nel ragionamento inferenziale. Quello dell'analisi causale è peraltro uno dei campi di ricerca sui quali si sta concentrando lo sviluppo dell'intelligenza artificiale ("abbiamo bisogno di macchine in grado di scoprire modelli causali" Yoshua Bengio).
[14]
La comprensione delle macchine è tuttavia diversa da quella umana. Le macchine infatti, allo stato non sono in grado di fare ragionamenti causali in grado di cogliere il significato di ciò che, pure, riescono a realizzare con qualità, talora, pari o superiore all’intelligenza umana. Sul punto si veda supra, con particolare riferimento ai risultati ad esempio del premio Loebner.
[15]
Intervento del professor Attardi, nella seduta del Senato della Repubblica del 16 luglio 2020, nel quadro dell’indagine conoscitiva sull’intelligenza artificiale.
[16]
Statuto giuridico e etico dell’IA https://fondazioneleonardo-cdm.com/it/news/statuto-etico-e-giuridico-dellintelligenza-artificiale/
[17] Il nome algoritmo deriva dalla trascrizione latina nome del matematico arabo Mohammed ibn-Musa al-Khwarizmi, vissuto tra il 780 e l’850 d.C.
[18] https://www.judicium.it/la-giustizia-predittiva-francia-trattamento-datajust/
[19]
Parlamento europeo: https://www.europarl.europa.eu/news/it/headlines/society/20200827STO85804/che-cos-e-l-intelligenza-artificiale-e-come-viene-usata.
[21]
Va segnalata a questo proposito la vittoria, avvenuta nel 2015. di Alpha Go contro il campione umano di Go (un antichissimo gioco orientale) Lee Se-Dol, che ha suscitato notevole impressione in quanto la macchina ha fatto alcune mosse (in particolare la mossa 37 della seconda partita), apparentemente priva di senso (per gli umani) e che la macchina non poteva aver quindi tratto dalle precedenti partite svolte ma che dimostravano una capacità creativa e strategica notevole rivelatasi superiore a quella umana. Va ricordato tuttavia che il campione umano è riuscito comunque a vincere una partita delle 5 (la numero 4) perdendo quindi 4-1.
[22]
Why Machine Learning May Lead to Unfairness: Evidence from Risk Assessment for Juvenile Justice in Catalonia, Conference: International Association for Artificial Intelligence and Law At: Montreal, Canada, Giugno 2019.
[25]
Artificial intelligence: How does it work, why does it matter, and what can we do about it? pag. 19-20.
[26]
Nell’intervento del professor Tamburrini, nel corso dell’indagine conoscitiva in corso al Senato sull’intelligenza artificiale, nella seduta del 29 settembre 2020 è stato segnalato come “le reti di comunicazione data center, l’energia dei computer e altri dispositivi CT oggi navighino intorno alla produzione di circa il 10 per cento del totale di consumo di energia”.
[27]
Un’ampia riflessione sugli impatti dell’intelligenza artificiale, anche con riferimento al mercato del lavoro è presente nel documento dello STOA “Should we fear artificial intelligence?”
[30]
Il Presidente è l’onorevole Grimoldi. Per la Camera, la rappresentanza è costituita da cinque deputati (onorevoli Barzaro – Del Barba – Invidia - Scagliusi – Valentini), mentre sono invece sette i delegati per il Senato (senatori Augussori – Ferrara – Mallegni – Mollame – Taverna – Totaro – Vattuone).
[31] Per una rassegna delle strategie nazionali riguardanti l’intelligenza artificiale si veda quanto riportato nel piano coordinato sull'Intelligenza Artificiale 2021 [COM(2021) 205 final], appendice 2, pagg. 64-70. Tra gli Stati dell’Unione 19 hanno adottato un loro piano e tre Stati (Germania, Cipro e Finlandia) lo hanno anche già aggiornato le loro strategie. I Paesi che. Come l’Italia hanno il loro piano in fase di approvazione sono: Austria, Belgio, Croazia, Grecia, Irlanda, Romania e Slovenia.
[32]
Laboratorio Nazionale di Artificial Intelligence and Intelligent Systems del Consorzio interuniversitario nazionale per l’informatica.
[33] La Fondazione Leonardo ha altresì tenuto il 7 maggio 2021 un webinar dal titolo “Regolazione europea per l’IA. La proposta della Commissione”.
[34] Il 1 ° dicembre 2019, il Centro europeo di strategia politica (EPSC) è stato ribattezzato I.D.E.A. (Inspire, Debate, Engage and Accelerate Action), con una nuova missione, compiti e struttura (P (2019) 5 - Comunicazione del Presidente alla Commissione)
[35]
Si tratta dei dati personali che rivelino l'origine razziale o etnica, le opinioni politiche, le convinzioni religiose o filosofiche, l'appartenenza sindacale, nonché i dati genetici e i dati biometrici intesi a identificare in modo univoco una persona fisica, i dati relativi alla salute o alla vita sessuale o all'orientamento sessuale della persona.