XVIII Legislatura

III Commissione

Resoconto stenografico



Seduta antimeridiana n. 1 di Giovedì 18 giugno 2020

INDICE

Sulla pubblicità dei lavori:
Grande Marta , Presidente ... 3 

INDAGINE CONOSCITIVA SULLE EVENTUALI INTERFERENZE STRANIERE SUL SISTEMA DELLE RELAZIONI INTERNAZIONALI DELLA REPUBBLICA ITALIANA

Audizione di Mauro Voerzio, responsabile italiano del progetto Stopfake .
Grande Marta , Presidente ... 3 
Voerzio Mauro , responsabile italiano del progetto ... 3 
Grande Marta , Presidente ... 7 
Quartapelle Procopio Lia (PD)  ... 7 
Cabras Pino (M5S)  ... 8 
Grande Marta , Presidente ... 8 
Boldrini Laura (PD)  ... 9 
Romano Andrea (PD)  ... 9 
Carelli Emilio (M5S)  ... 9 
Valentini Valentino (FI)  ... 10 
Grande Marta , Presidente ... 10 
Voerzio Mauro , responsabile italiano del progetto ... 10 
Grande Marta , Presidente ... 11

Sigle dei gruppi parlamentari:
MoVimento 5 Stelle: M5S;
Lega - Salvini Premier: Lega;
Forza Italia - Berlusconi Presidente: FI;
Partito Democratico: PD;
Fratelli d'Italia: FdI;
Italia Viva: IV;
Liberi e Uguali: LeU;
Misto: Misto;
Misto-Noi con l'Italia-USEI-Cambiamo!-Alleanza di Centro: Misto-NI-USEI-C!-AC;
Misto-Minoranze Linguistiche: Misto-Min.Ling.;
Misto-Centro Democratico-Radicali Italiani-+Europa: Misto-CD-RI-+E;
Misto-MAIE - Movimento Associativo Italiani all'Estero: Misto-MAIE;
Misto-Popolo Protagonista - Alternativa Popolare: Misto-PP-AP.

Testo del resoconto stenografico

PRESIDENZA DELLA PRESIDENTE
MARTA GRANDE

  La seduta comincia alle 16.

Sulla pubblicità dei lavori.

  PRESIDENTE. Avverto che la pubblicità dei lavori della seduta odierna sarà assicurata anche attraverso la trasmissione televisiva sul canale satellitare della Camera dei deputati e la trasmissione diretta sulla web-tv della Camera dei deputati.

Audizione di Mauro Voerzio, responsabile italiano del progetto Stopfake .

  PRESIDENTE. L'ordine del giorno reca, nell'ambito dell'indagine conoscitiva sulle eventuali interferenze straniere sul sistema delle relazioni internazionali della Repubblica italiana, l'audizione del dott. Mauro Voerzio, responsabile italiano del progetto StopFake.
  A nome di tutta la Commissione do il benvenuto al dottor Voerzio e lo ringrazio in modo particolare per la disponibilità a prendere parte ai nostri lavori, malgrado le difficoltà logistiche derivanti da un non prevedibile andamento dei lavori parlamentari.
  Il dottor Voerzio, oltre al suo ruolo nel progetto Stopfake, studia da anni le cosiddette guerre ibride, tema da lui declinato soprattutto in riferimento al conflitto russo-ucraino, avendo vissuto da vicino i fatti di piazza Maidan del 2014. Sul tema ha pubblicato anche alcuni lavori che lo hanno reso particolarmente noto. Mi riferisco in particolare all'ebook «Guerra ibrida: Attacco all'Europa».
  Quanto al progetto StopFake, si tratta di una iniziativa assunta dall'Università del giornalismo di Kiev con il mandato di intercettare e contrastare la disinformazione su rilevanti dossier: dalla questione russo-ucraina alle elezioni presidenziali negli Stati Uniti, dal referendum sulla Brexit alle elezioni in molti Stati europei, inclusa l'Italia, fino alla pandemia da COVID-19.
  Il progetto Stopfake, secondo quanto si apprende dal sito internet, si avvale di figure professionali varie: giornalisti ma anche specialisti di marketing, programmatori, traduttori e volontari.
  L'Italia è attualmente il quarto Paese al mondo dove StopFake è più seguito, dopo Ucraina, Russia e Stati Uniti. Merita segnalare che il progetto StopFake non appare supportato finanziariamente da organizzazioni governative.
  Ciò premesso do la parola al nostro ospite affinché svolga il Suo intervento, avvertendo che dovremo concludere alle 16.45. Nella sua esposizione chiedo al dottor Voerzio di non mancare di dare elementi sui metodi di lavoro di StopFake con riferimento alle modalità di confutazione delle notizie e agli esiti del lavoro di ricerca che viene svolto.

  MAURO VOERZIO, responsabile italiano del progetto Stopfake. Innanzitutto grazie dell'invito. Non nascondo di essere molto emozionato, perché entrare in questo edificio è sempre un'emozione.
  La presidente ha fatto una presentazione di StopFake. Vorrei solo aggiungere che è un progetto dell'università di giornalismo di Kiev e che viene tradotto in tredici lingue. Nasce nel 2014 ed è su base volontaria. Ha ricevuto finanziamenti. È stato attaccato molto anche perché il primo anno è stato finanziato direttamente dalla International Reinassance Foundation di George Pag. 4Soros, dopodiché è stato finanziato da ambasciate europee e altre componenti, mai dal governo ucraino. Si basa sul lavoro volontaristico, perché i finanziamenti servono solo per pagare la struttura in sé stessa. Quindi questo è un lavoro basato sul volontariato.
  Per guadagnarmi da vivere io faccio tutt'altro nella vita. Attualmente sono distaccato presso il Servizio europeo per l'azione esterna nella missione European Union Monitoring Mission in Georgia, dove svolgo l'attività di monitor ai confini con l'Abcasia, che quindi è tutto un altro tipo di teatro, ma se vogliamo, collegato. Non sono qui per passare da russofobo. È una cosa che ci tengo a dire.
  Non nascondo assolutamente che ci sono varie potenze che utilizzano diversi modelli di disinformazione, di guerra ibrida. Io mi occupo da 2014 dello studio della guerra ibrida e della disinformazione russe e quindi i miei esempi vertono su questa nazione, però io stesso farei disinformazione se dicessi che è solo la Russia a fare disinformazione.
  Ci sono delle ricerche a livello internazionale che dicono che oltre il 50 per cento della disinformazione presente sui social si basa sul modello che è stato ideato in questi ultimi vent'anni in Russia, ma ci sono diverse nazioni che utilizzano anche altre metodologie con lo stesso scopo, che adesso andremo a vedere. Innanzitutto non abbiamo molto tempo. Questo è un argomento molto complesso da sviluppare. Quello che vorrei fare oggi è dare due o tre punti, spot, che possano favorire un ulteriore approfondimento della tematica, perché quando noi pensiamo di essere ammalati, abbiamo bisogno di una corretta diagnosi. Finché non sappiamo esattamente quale malattia abbiamo, non possiamo iniziare a curarci. Quindi il saper riconoscere quali sono i segnali di hybrid threats o di disinformazione, qual è la loro provenienza e saperli inquadrare, ci può aiutare a formulare eventualmente delle forme di difesa. Innanzitutto parto da questo termine.
  Ho la fortuna di vedere la presidente Boldrini, che aveva lanciato anni fa un'iniziativa «stop bufale». C'eravamo anche sentiti col suo staff. Io già allora dissi che l'attività era molto meritoria, ma c'era un errore di fondo nella terminologia, perché le bufale sono un fenomeno prettamente economico. Chi crea queste notizie acchiappa-clic lo fa perché vuole attirare a sé le persone nel proprio sito web e nel suo sito web troveranno dei banner pubblicitari che gli fanno guadagnare sette, otto, dieci centesimi a clic. Quindi le bufale nascono per avere un guadagno economico.
  Confondere le bufale con le fake news è un errore, perché le fake news, invece, non sono un fenomeno economico di guadagno. Anzi, per supportare una struttura che diffonda fake news, come vedremo, occorrono cospicui investimenti. Bisogna creare una struttura che ci dia poi la possibilità di diffondere queste fake news.
  È vero che a volte chi fa disinformazione, quindi i siti di disinformazione prendono anche notizie che arrivano dalle cosiddette «bufale acchiappa-clic», ma la differenza è che le bufale sono pubblicate, create unicamente per attirare le persone a cliccare, non hanno nessun secondo fine. Le fake news, invece, hanno un secondo fine che magari è pensato all'interno di accademie militari, di governi, eccetera. Quindi una delle prime cose su cui ci dobbiamo concentrare è che il termine esatto, quando noi vogliamo parlare di ingerenze o comunque di destabilizzazione è che bisogna parlare di «fake news» e non di «bufale», anche perché nell'immaginario collettivo la bufala è una cosa anche simpatica. Non ci fa paura. Se noi pensiamo all'immagine della bufala è una cosa che ci fa ridere, se vogliamo. In realtà se invece parliamo di fake news e sappiamo che dietro ci sono l'idea di magari destabilizzare uno Stato o le assimiliamo alla guerra ibrida, ecco che la parola «guerra» ci dà tutt'altra immagine.
  Quindi prima di tutto le fake news, ma normalmente questo termine viene utilizzato in ogni ambito per descrivere tutto, mentre il problema è che le fake news non sono l'unica parte della disinformazione. Per esempio, c'è la misinformation. È quando io prendo una notizia che ha pubblicato un mio amico che di solito risponde al mio Pag. 5bias di conferma ed è questo il motivo per cui noi la condividiamo, perché dico: «Vedi? Io la dicevo questa cosa...» e la ripubblico.
  Quando io ripubblico una fake news, una notizia falsa e la condivido, io non sono un disinformatore se non lo faccio con colpa. Se non lo faccio con dolo, io sto facendo misinformation, perché la mia prima reazione è quella di condividere una cosa senza andarla a verificare. La misinformation è secondo me uno dei punti chiave su cui bisognerebbe far leva, con una maggiore alfabetizzazione delle persone, perché la disinformazione si basa molto su questo.
  È vero che la disinformazione ha una catena logistica di sharing delle informazioni, però normalmente i disinformatori, quando fanno delle campagne di disinformazione, si avvalgono dei cosiddetti «influencer», giornalisti o comunque persone che hanno un seguito sociale molto alto. Faccio l'esempio: in Italia ci sono molti della diaspora ucraina che seguono la mia pagina e vedo che generalmente quando pubblico qualcosa, loro lo condividono in maniera acritica e questo è un errore, perché io potrei essere un disinformatore e loro fare disinformation; è molto importante che le persone siano coscienti di quello che vanno a condividere e su come andare a verificare che un'informazione sia vera oppure falsa.
  Poi abbiamo altri esempi, ad esempio la distorsione, quindi io posso prendere una notizia che ha una parte di verità e la posso distorcere a mio piacimento. La posso manipolare, quindi una notizia che ha una verità e che vuole dimostrare una cosa e io invece vado a dimostrarne una completamente differente.
  Ci sono le teorie del complottismo. Le teorie del complottismo sono impossibili da debunkare, proprio per il loro assunto, perché il complottista ti dirà sempre: «È vero che non ci può essere questa evidenza perché c'è il deep state, la Spectre eccetera, che vi nasconde queste informazioni e non potrete mai sapere la verità.»
  La propaganda è un'altra fonte di disinformazione, anche se noi sappiamo che la propaganda nasce nel '600, dalla bolla papale di Propaganda Fide che aveva tutt'altro scopo che quello della disinformazione, anzi aveva uno scopo assolutamente positivo, propagandare il cristianesimo nel mondo. Chiunque di noi può essere un propagandista in senso buono. Io oggi sono un propagandista di me stesso. Sono qui che cerco di spiegare quello che penso io. Lo faccio in buona fede e quindi la propaganda può anche avere un aspetto positivo. Diventa deleteria se utilizzata come la utilizzava Goebbels o come l'hanno utilizzata poi molti altri.
  Tutte queste cose se noi le prendiamo e le mettiamo in un insieme, lo possiamo chiamare «l'insieme della disinformazione». La disinformazione non utilizza solo fake news. La disinformazione utilizza diverse metodologie. Qual è lo scopo della disinformazione? La disinformazione non ha lo scopo di convincerci che una cosa è vera o è falsa. A loro non interessa assolutamente nulla. Il goal finale della disinformazione è creare caos.
  Per esempio, adesso è tornato nuovamente in auge, ma già nel 2016 è stato effettuato uno studio da diverse università americane sui tweet e retweet prima della campagna presidenziale riguardanti la questione «black lives matter» ed era emerso da quella ricerca che moltissimi tweet e retweet all'interno dei gruppi sia dei suprematisti americani sia degli afroamericani provenivano dall'IRA, l'Internet Research Agency di San Pietroburgo, meglio nota come «la fabbrica dei troll»: questo perché a loro interessava creare scontro fra i suprematisti e gli afroamericani, perché generassero caos all'interno degli Stati Uniti.
  Qui abbiamo la disinformazione. La disinformazione è una parte. Ad esempio noi conosciamo le misure attive. In questo caso io ne ho indicate alcune. Queste sono quelle che abbiamo visto direttamente sul campo in Ucraina nel 2014, ma c'è stata una specie di «turisti e omini verdi» anche a Parigi con i gilet gialli. Cosa vuol dire? Le misure attive sono quelle che sono state esplicitate anche da Valery Gerasimov quando nel 2013 il capo di Stato maggiore russo ha spiegato la nuova dottrina militare russa, dove lui diceva – giustamente dal suo punto Pag. 6di vista – che la disinformazione doveva uscire dalle università ed entrare nell'accademia militare e diventare un'arma come lo può essere l'aviazione. Tra i vari steps che Gerasimov spiega nella sua dottrina militare parla delle misure attive. Lui dice che le guerre come le abbiamo vissute fino ad adesso, con la dichiarazione consegnata all'ambasciatore dello stato nemico, probabilmente non le vedremo più, perché non utilizzeremo neanche più i soldati del nostro esercito. Utilizzeremo gli «omini verdi».
  Questo è successo in Ucraina, in Crimea, quando per circa due mesi c'erano questi omini verdi senza insegne. Tutti sapevano che erano delle forze speciali russe, ma erano senza insegne. È successo poi in Libia e in Siria con la compagnia Wagner, nonché in Centrafrica. Questo è un modello che viene utilizzato oggigiorno, come i «turisti». Noi abbiamo visto che ad aprile 2014 nella regione di Donetsk tutti gli hotel erano al completo quando in quella stagione nessuno andava a fare le vacanze nella regione di Donetsk. I turisti erano persone in abiti civili, ma anche loro dei reparti speciali che poi hanno dato l'assalto alle stazioni di polizia.
  Abbiamo il soft power, i troll, le botnet, i sockpuppet. I sockpuppet sono molto interessanti, perché a differenza delle botnet, che sono delle macchine, dietro ai sockpuppet c'è una persona. Ogni persona crea tra i dieci e i venti profili e li utilizza magari nei due gruppi. Io creo dieci profili all'interno del gruppo di suprematisti e dieci profili all'interno del gruppo degli afroamericani e gli faccio dire delle cose incendiarie tra i due gruppi, ma sono sempre io dietro questi sockpuppets.
  Un'altra misura classica è il kompromat. Se posso fare un mio personalissimo esempio, è un esempio che non è stato trattato da quasi nessun media, quindi probabilmente mi sbaglierò, però quello che è avvenuto, ad esempio all'hotel Metropol, per la sua dinamica, secondo me è qualcosa di molto simile a un kompromat, perché l'hotel Metropol è conosciuto come la seconda casa del Federal security service della Federazione russa dopo la Lubjanka e pensare che qualcuno riesca a introdursi in questo hotel, registrare eccetera, secondo me è un po' arduo. Poi tutto può essere, ma le modalità, anche se non lo fosse, sono proprio quelle del kompromat. Tra l'altro, pochi mesi prima aveva anche investito Strache in Austria e gli hanno fatto la stessa cosa. Quindi il kompromat è un'altra di quelle armi che vengono utilizzate.
  Il camouflage è un'altra tecnica che viene utilizzata spesso negli hybrid threat. Si creano dei profili all'interno dei social network. Sono profili dormienti. Noi ce ne siamo accorti. Ho seguito la campagna elettorale dell'anno scorso in Ucraina, dove è stato eletto nuovo presidente ed è stato interessante, perché i profili filoucraini o con un nome che potevano sembrare della diaspora ucraina, che mi avevano chiesto l'amicizia magari un anno o due prima, non avevano mai interagito con me commentando i miei post o altre cose. Durante la campagna elettorale questi profili che erano sconosciuti commentavano qualsiasi post e lo facevano in una maniera che tendeva a dividere la diaspora ucraina in Italia in due fazioni. Quello per me è stato un segnale molto evidente che si trattava di profili dormienti che erano stati inseriti prima. Questi profili non possono essere creati all'istante, cioè fra tre mesi abbiamo una campagna elettorale e pensiamo che andiamo a colpire il nostro avversario. Queste cose devono essere create con anni in anticipo, perché io per entrare nelle amicizie devo comunque chiedere l'amicizia a una persona che potrebbe essere l'influencer o l'endorser. Quindi le altre persone che vedono che io sono amico di questa persona mi danno l'amicizia e mi danno la fiducia, quindi mi creo questa mia bolla personale.
  Dopodiché il mio compito è quello di far litigare le persone al loro interno, perché è sempre quello l'obiettivo della disinformazione, dividere e creare caos fra i vari gruppi e cercare di polarizzare il più possibile, perché se io riesco a creare delle bolle... In Italia ho notato che è tipico che quando la situazione diventa un po' più tesa, si ritorna a parlare di fascismo e antifascismo. Questo – lo dico non per quanto riguarda la parte politica ma da Pag. 7tecnico – è un modo anche per polarizzare, perché noi più polarizziamo questi due schemi, più, in primo luogo, queste persone cominceranno a non parlarsi più e, in secondo luogo, inizieranno insultarsi. Quando le persone iniziano a insultarsi vuol dire che il livello di rabbia e di cattiveria nella società sta aumentando e diventa più pericoloso. Quindi bisogna fare molta attenzione su quello.
  Un'altra cosa che viene utilizzata molto è il reflexive control, ovvero il cercare di far fare al mio nemico le cose che io vorrei che lui facesse. Quindi cerco di spingerlo a votare o a fare qualsiasi cosa nel modo che io vorrei. Dunque ho dato degli elementi dove ho indotto le persone ad arrivare a pensare in un certo modo, addirittura contro i loro interessi. Questa è una cosa che viene utilizzata molto ultimamente ed è anche difficile da scovare, perché lavora molto undercover.
  Si può utilizzare un altro potere, quello dell'economia, le psy-ops, che però negli ultimi anni sono state assorbite dalla disinformazione. Le psy-ops sono le operazioni psicologiche. Una volta erano gestite solo dai militari e cercavano di andare a distruggere. Ultimamente sono state assorbite da chi gestisce la disinformazione. C'è il cyber-terrorismo, quindi hackeraggio, che è anche collegato.
  Tutte queste misure, se le mettiamo in un altro insieme, arriviamo a quello che possiamo definire una «guerra ibrida». È l'insieme di tutte queste misure. Le «fake news» sono una piccola parte di questo grande insieme: noi, nel nostro pensare comune, nei media, generalmente ci scagliamo contro le fake news, però quando noi ci scagliamo contro le fake news vediamo solo una piccola parte. C'è tutto un mondo attorno.
  Quindi è importante riuscire a riconoscere quali sono le direttrici che arrivano, che non sono solo le fake news, può essere il cyber-terrorismo, l'hackeraggio dell'informazione istituzionale, abbiamo detto il kompromat, le misure attive eccetera. Tutte queste cose, se noi andiamo ad analizzarle tutte assieme, possiamo cominciare ad avere un'idea se effettivamente qualcuno sta cercando di modificare il nostro modo di vivere, sta cercando di destabilizzare la nostra società, che non sono solo le fake news. Questa è la domanda finale «l'Italia è sotto attacco?». Io, dal mio punto di vista dell'analisi delle fonti aperte, quindi quelle che possiamo analizzare tutti quanti noi, direi di sì, assolutamente. Ci sono diverse potenze, e non solo la Russia, ma anche altre superpotenze, che stanno cercando di portarci in una forma di reflexive control a voler noi stessi italiani ribaltare il mondo, la nazione democratica che ci siamo costruiti in questi ultimi settant'anni. Stanno facendo un qualcosa per cui siamo noi stessi che a un certo punto inizieremo a lottare contro il nostro mondo.
  Questa è una cosa molto pericolosa. L'abbiamo vista anche ultimamente con tutta la narrazione che c'è stata sul COVID-19. Io l'ho seguita un po' di meno, perché questa effettivamente arrivava molto di più dalle botnet e dalle fonti di informazione cinesi. È stata fatta molta disinformazione, ma io sono convinto che non è una disinformazione fatta per giustificare o meno il discorso del COVID-19, ma per creare quell'humus di rabbia tra la gente che è necessario assolutamente per il reflexive control, per arrivare a una destabilizzazione della nostra società, così come l'abbiamo conosciuta finora.
  Ho cercato di concludere ed essere molto veloce. Per chi vuole poi eventualmente approfondire, io rimango disponibile. Grazie.

  PRESIDENTE. Grazie per questa presentazione. Passerei subito alle domande da parte dei colleghi. È iscritta l'onorevole Quartapelle Procopio.

  LIA QUARTAPELLE PROCOPIO. Io ringrazio davvero tantissimo Mauro Voerzio per una presentazione che, secondo me, avvia questo lavoro conoscitivo che stiamo facendo a livello parlamentare in modo molto chiaro e schematico, nel senso di definitorio. Ci sono due domande: la prima riguarda ancora di più il tema della definizione.
  Molte delle cose di cui Lei ci ha parlato sono in realtà comportamenti di cui è difficile Pag. 8 valutare la vera natura. La propaganda è l'esempio più classico. I partiti politici si accusano vicendevolmente di propaganda. In parte tutti noi sappiamo che nel modo di raccontare la realtà c'è una parte di narrazione e una parte anche di camouflage, per usare una delle parole che Lei ha usato. Ci può indicare qual è la linea di confine tra comportamenti accettabili in quanto comportamenti partigiani o parziali, ma non offensivi, e invece comportamenti sui quali dobbiamo fare attenzione?
  La seconda domanda – forse è un po' presto rispetto al lavoro che noi stiamo facendo, però purtroppo Lei arriva per primo e quindi mi dispiace chiederglielo subito così – riguarda il tipo di protezione che noi possiamo attivare rispetto a questo tipo di attacchi. Questa è una Commissione Affari esteri, per cui noi stiamo ragionando su questi comportamenti, cioè la disinformazione volta a modificare l'orientamento della politica internazionale del nostro Paese.
  Che tipo di comportamenti difensivi noi possiamo attuare per far sì che il dibattito pubblico italiano sia il meno inquinato possibile? Se poi liberamente i cittadini italiani intendono decidere in un senso o in un altro rispetto all'orientamento delle nostre relazioni internazionali, non ci sono problemi, ma come facciamo a proteggere il dibattito pubblico il più possibile?

  PINO CABRAS. L'esposizione l'ho trovata molto ordinata e precisa nel definire tipologie di manipolazione dell'informazione; ad esempio, il termine «sockpuppet» lo conosco da dieci anni, perché mi era capitato di leggere la descrizione di alcune manipolazioni fatte ad alcune importanti multinazionali rispetto a gruppi di pressione che combattevano le loro posizioni. Già maneggiavano più profili e influivano sulla guerra della percezione, così come furono presenti nel descrivere in funzione anti-Assad la dimensione della guerra che si stava svolgendo in Siria. C'erano centri di potere organizzati.
  La critica che mi sento di fare è che è una rappresentazione precisa come possono esserlo anche le equazioni matematiche di Keynes a corredo di tutto il suo discorso complessivo. Quel che non capisco è che se uno scopre il valore complessivo di una teoria generale come quella di Keynes, perché applicarla solo al mercato ittico? Si applica all'intera società. Io non credo che la descrizione di questi strumenti sia prerogativa prevalente o unica dei russi, perché questi strumenti sono un qualcosa usato generalmente ormai da tutte le potenze. L'ha detto anche un po' in premessa, ma poi ha attenuato questa affermazione con discorsi che portavano su un prevalente uso di questa cosa da parte dei russi.
  Per dire, la NATO ha un manuale di operazioni strategiche che prevede l'uso di queste cose. Prevede che si possano usare all'interno di una guerra della percezione in cui si mette nello stesso file, in uno stesso coordinamento anche l'attività delle pubbliche relazioni. Lo fa Israele a difesa delle sue politiche. Nel 2006 l'invasione del Sud del Libano fu un disastro militare, anche perché c'erano molti messaggi dei soldati israeliani che non erano contenti dell'andamento della guerra. In operazioni militari successive la prima cosa che fecero le forze armate israeliane fu di limitare l'uso anche degli sms e poi degli stessi smartphones.
  Lo fanno tutti, è un tipo di presenza generalizzata ed è difficile distinguere. In molti casi non è solo un controllo di tipo militare. Avviene attraverso il controllo delle case editrici, dei principali editori dei giornali che esercitano un'influenza decisiva sulle loro testate per dare il rumore di fondo dell'informazione. Da questo punto di vista io credo che anche l'occidente sia fortemente coinvolto in questo tipo di discorso, perché c'è una grande organicità.
  La faccio breve: quanto si è scoperto della integrazione delle informazioni possedute da Facebook, da Google, dai principali social network utilizzati da miliardi di persone all'interno della National Security Agency americana, ci dice che queste informazioni sono già immediatamente disponibili e utilizzabili anche dalla potenza statunitense. Quindi credo che questa sia una questione generale da considerare.

  PRESIDENTE. Abbiamo altri tre interventi. Già prevedo che forse non ci sarà Pag. 9tempo per le risposte che il nostro ospite deve darci, fermo restando la possibilità di aggiornarci per un seguito dell'audizione. Onorevole Boldrini, prego.

  LAURA BOLDRINI. Grazie, signora presidente. Grazie veramente a Mauro Voerzio per la presentazione, che io trovo estremamente interessante. Volevo mettere l'accento su alcuni punti. È vero che le bufale rispondono a un meccanismo economico – dieci centesimi a clic e vai –, ma la bufala si concentra su un obiettivo, cioè si fa il clic se si spara grosso e se si spara grosso su alcune figure che attraggono, alcune figure pubbliche, anche politiche. Dunque si va comunque a condizionare l'opinione pubblica, dunque il consenso, dunque il dissenso, dunque la democrazia, dunque non la limiterei al solo fatto che si fanno i clic.
  Glielo dico perché in alcune circostanze di processi a me è capitato che innocentemente venisse detto questo: «Mi faceva clic e dunque io facevo così.», ma nel fare clic tu hai poi conseguenze di altra natura. Quindi non è solo una cosa divertente che fa clic per qualche sito che altrimenti poverino non ce la fa, quindi dai, mettiamoci anche in gioco di farci prendere un po' in giro.
  Mi ha interessato molto il fatto che Lei dicesse che le fake news fanno parte di un universo molto più ampio, e questo è evidente a chiunque abbia un po' di attenzione alla rete. Si capisce bene che oggi tutto si gioca su quella sfera. Si capisce anche che le fake news sono l'anticamera dell'odio. Invento per creare odio e creo odio per creare contrapposizione, clash e dunque per creare caos e sul caos c'è chi vive.
  Avendo chiarito questo punto, io Le chiedo: siccome tutto questo veramente entra a gamba tesa sui meccanismi della libertà di pensiero, perché oggi si organizza la gogna mediatica. Chi è contro viene assaltato e non è che viene assaltato da individui, ma da botnet, da troll, allora questa roba rimette in discussione la libertà di espressione. Caccia dalla sfera pubblica moltissime donne, per esempio, che hanno per di più l'attacco sessista, quindi anche leader che si sono presentate alle elezioni hanno perso, anche perché questo è accaduto; quindi come si fa? Lei che misure trova per arginare questa deriva? Come possiamo oggi arginarla per salvaguardare il dibattito pubblico politico e la nostra democrazia? Se l'Italia è sotto attacco, come si difende l'Italia? Questa è la domanda. Grazie.

  ANDREA ROMANO. Cerco di andare al punto rapidamente per permettere una replica. Ha ragione il collega Cabras. Non si scandalizzi, Cabras, chiaramente non siamo di fronte a una novità. Lei ha usato un termine, «kompromat», che risale alla vicenda sovietica degli anni trenta, ai materiali compromettenti. La domanda mia è questa: noi non siamo qui a fare l'elenco dei buoni e dei cattivi, né a dire che questo Paese l'ha fatto; però, rispetto a una tradizione storica consolidata di guerra psicologica, guerra di propaganda, eccetera, qual è, dal suo punto di vista, la differenza – se c'è – tecnologica, politica e finanziaria? C'è stato un salto di qualità in particolare da parte della Russia, visto che anche Lei si occupa professionalmente del campo geopolitico russo-ucraino? C'è stato un salto di qualità rispetto a quello che accadeva nella guerra fredda?

  EMILIO CARELLI. Anch'io sarò breve. Grazie per l'esposizione. Mi ha molto colpito – naturalmente non sorpreso, ma colpito – la frase finale. Lei dice che l'Italia è sotto attacco. Ebbene sì, non è una novità, lo sappiamo o comunque emerge di volta in volta nelle inchieste giornalistiche eccetera.
  Allora la mia domanda, che ricalca anche quello che è già emerso da alcuni colleghi, è: cosa può fare il Parlamento? Cosa può fare questa Commissione? Cosa può fare la Camera dei deputati per contenere i danni di questo attacco? C'è una strategia che possiamo mettere in atto anche attraverso uno strumento legislativo? Magari non riusciremo a impedirlo, ma a contenerlo.
  L'altro aspetto che era molto interessante, ma forse richiederebbe un po' di tempo, è l'uso che la politica può fare di questi meccanismi. Io ricordo Cambridge Pag. 10Analytica, che poi è stata chiusa. Hanno riaperto negli Stati Uniti società come Trishcourt, che è forse la prima a livello mondiale, eccetera. Loro avvicinano i partiti politici e i leader candidati. L'hanno fatto in Ucraina, hanno come cliente Trump e gestiscono per loro la campagna elettorale, arrivando a mio parere a un limite molto sottile tra ciò che è lecito e ciò che è illecito nell'influenzare i vari soggetti che sono presenti con delle identità su internet. Fino a che punto può arrivare il lecito nel fare questo e dove invece scatta l'illecito per i partiti?

  VALENTINO VALENTINI. Sarò rapidissimo. Oggi è un giorno in cui l'onorevole Cabras ha grande successo. Anch'io mi iscrivo un po' nella linea del suo intervento. Vorrei porre questa domanda, che è un quesito di fondo: possiamo realmente dire che l'Italia è sotto attacco, oppure dobbiamo dire che ciò che Lei ci ha descritto è il terreno di scontro nel quale si muove ormai la dinamica della geopolitica e di tanti altri settori?
  Perché se l'Italia è sotto attacco, allora io vorrei con questa Commissione scoprire quali sono effettivamente gli attacchi, perché se c'è un attacco, c'è una strategia e c'è un fine. Se invece giungiamo alla conclusione che questo è il terreno in cui si muove la politica, questo è il terreno in cui si muovono ormai gli attori, ci sono azioni e reazioni, allora le conclusioni della nostra Commissione saranno diverse. Questo era un punto che volevo mettere. Siamo sotto attacco o questo è il terreno di scontro nel quale ormai si muove la geopolitica moderna? Grazie.

  PRESIDENTE. Invito il nostro ospite ad intervenire in sede di replica.

  MAURO VOERZIO, responsabile italiano del progetto Stopfake. Provo a rispondere un po' a tutto. Dal mio punto di vista siamo sotto attacco, dalle analisi che ci vorrebbe molto tempo per spiegare. Una domanda che ho sentito da più persone è «che cosa possiamo fare?». È dimostrato che qualsiasi tipo di legge censoria non funziona in questo caso. È dimostrato che, ad esempio, il debunking è un'aspirina a un malato terminale. Non basta dimostrare che una notizia è falsa.
  Dal mio punto di vista ci vorrà molto tempo. Bisognerebbe investire sull'alfabetizzazione delle persone, cioè dare gli strumenti, i tools, gli strumenti culturali a ogni persona per decidere da sé quando si trova di fronte una informazione, fare una sua piccola analisi, chiedersi se sarà vera. Quindi vado a vedere, vado a verificare, che poi non è una cosa difficilissima. Basta fare quattro ricerche col pulsante destro sul titolo, eccetera o vedere una foto, capire che una foto non si riferisce a Berlino 2013, ma si riferisce a Stoccolma 2018, non è difficilissimo. Lo si può fare con delle ricerche. Si può andare a vedere che tempo faceva quel giorno a Berlino: se pioveva e in quella foto c'era il sole, quella foto non è di Berlino. Si possono fare delle semplici cose. Bisognerebbe portare le persone ad essere più indipendenti nel giudicare un'informazione.
  Sul discorso russi, ho premesso che io studio quel tipo di campo, per cui sono conscio che altre superpotenze come gli Stati Uniti e la Cina si muovano anche loro su questo terreno, ma non mi sentirei in grado di parlare di modelli di altre superpotenze, semplicemente perché non le ho studiate. Queste le studio dal 2014 e quindi ogni giorno vedo un pezzo in più che si incastra nel puzzle e che mi fa dire in questo caso che siamo sotto attacco.
  Mi chiedeva prima l'onorevole Quartapelle Procopio come ce ne accorgiamo. Generalmente, quando ci troviamo di fronte a delle notizie false, delle fake news, queste seguono un modello che è la narrativa. C'è una narrativa che viene decisa, si deve puntare su questa narrativa e attorno a questo tipo di narrativa si vanno a costruire le fake news o si fanno manipolazioni e distorsioni di altre notizie per riportarle nell'alveo di questa narrativa. All'interno delle narrative ci sono quelle che noi chiamiamo le keywords.
  Faccio un esempio, sempre in tema di Ucraina, perché io ho studiato quello. Una delle keywords più utilizzate nella guerra Pag. 11informativa con l'Ucraina è che gli ucraini sono nazisti. Quindi in quasi tutte le notizie che vogliono mettere in cattiva luce l'Ucraina viene utilizzata la keyword «nazista». Allora se io in una notizia trovo due o tre keywords so che vengono utilizzate in quel Paese, perché so che la disinformazione è tailor-made, cioè è costruita e cucita addosso al Paese in cui devo operare, per cui una narrativa che funziona in Spagna magari non funziona in Italia.
  Quindi in ogni nazione, sapendo esattamente quali sono i punti deboli di quella nazione, si fa leva su quelle narrative e quelle keywords, per cui quando vedo arrivare notizie di un certo tipo che contengono queste keywords posso presumere e iniziare a ricercare chi ha pubblicato questa notizia, chi la diffonde, quali sono le reti che la ritweettano e la diffondono, quali sono i siti web su cui apparsa. Perché non è apparsa su questi giornali e invece è apparsa su questi siti web? Questo è il lavoro di intelligence che normalmente si fa.
  Un'altra domanda: mi si chiedeva qual è stata la differenza tra il passato e il presente. Adesso c'è internet, che ha reso tutto molto più economico. Prima fare delle campagne di disinformazione sicuramente costava di più. Valery Gerasimov però dice una cosa sacrosanta quando dice che bisogna usare la disinformazione e probabilmente ci saranno molte meno guerre di come l'abbiamo sempre conosciute noi: basti pensare che un tank costa otto milioni e mezzo di dollari e pensate a quanti tank si perdono la prima settimana di combattimenti in una guerra aperta e poi pensiamo con otto milioni e mezzo di dollari a quanti siti web, quanti troll, quante persone posso utilizzare nella mia campagna di disinformazione: avrete il quadro più chiaro. Per cui anche con somme non ingentissime o quelle che ci vorrebbero per fare una guerra, posso comunque provocare dei danni non da poco ad uno Stato target.
  Vi ringrazio tutti quanti per l'attenzione. Spero che avremo la possibilità, magari di approfondire l'argomento. Grazie a tutti.

  PRESIDENTE. Ringrazio il nostro ospite per la disponibilità e dichiaro conclusa l'audizione.

  La seduta termina alle 16.50.