Propaganda nell'era digitale: come le operazioni di influenza informatica erodono la fiducia
Le operazioni di influenza su stati stranieri di oggi utilizzano nuovi metodi e tecnologie, rendendo le campagne mirate all'erosione della fiducia più efficienti ed efficaci.
Gli stati-nazione stanno usando sempre di più operazioni di influenza informatica per distribuire la propaganda e influenzare l'opinione pubblica a livello nazionale e internazionale. Queste campagne erodono la fiducia, aumentano la polarizzazione e minacciano i processi democratici.
Gli abili attori di manipolazione persistente avanzata stanno usando i media tradizionali insieme a Internet e social media per aumentare enormemente l'ambito, la portata e l'efficienza delle loro campagne, oltre al grande impatto che stanno avendo nell'ecosistema informatico globale.
I media sintetici sono sempre più diffusi a causa della proliferazione di strumenti che creano e disseminano facilmente immagini, video e audio artificiali altamente realistici. La tecnologia basata sulla provenienza digitale che certifica l'origine degli asset multimediali si preannuncia promettente per combattere l'uso improprio.
È necessario un approccio olistico per proteggere le soluzioni dalle operazioni di influenza informatica. Microsoft sta facendo affidamento sulla sua infrastruttura di intelligence sulle minacce informatiche già matura per contrastare le operazioni di influenza informatica. La nostra strategia consiste nel rilevare, interrompere, scoraggiare e difendere da campagne di propaganda di aggressori stranieri.
Aumento della proliferazione di fake news dal 2019 del 900% rispetto all'anno precedente1
Le operazioni di influenza informatica stanno diventando sempre più sofisticate man mano che la tecnologia si evolve. Stiamo constatando una sovrapposizione ed espansione degli strumenti utilizzati nei cyberattacchi tradizionali che vengono ora applicati alle operazioni di influenza informatica. Inoltre, abbiamo osservato un maggiore coordinamento e una maggiore amplificazione tra gli stati-nazione.
I regimi autoritari nel mondo stanno collaborando per inquinare l'ecosistema delle informazioni per i loro vantaggi reciproci. Amplificando le loro rispettive campagne, gli organi di stampa gestiti dagli stati creano un ecosistema in cui la copertura negativa delle democrazie (o la copertura positiva degli alleati) prodotta da un'agenzia di stampa statale viene rinforzata dalle altre.
Ad aggiungersi a questa difficoltà, le entità tecnologiche del settore privato potrebbero favorire involontariamente queste campagne. Potrebbe trattarsi di società che registrano domini Internet, ospitano siti Web, promuovono materiali sui social media e nei siti di ricerca, canalizzano il traffico e consentono i pagamenti per questi esercizi attraverso la pubblicità digitale.
Le organizzazioni devono conoscere gli strumenti e i metodi impiegati dai regimi autoritari per le operazioni di influenza informatica affinché possano rilevare e quindi prevenire la diffusione delle campagne.
Inoltre, vi è sempre più la necessità di aiutare i clienti a sviluppare una capacità più sofisticata di identificare le operazioni di influenza straniere e di limitare il coinvolgimento nelle narrazioni o nei contenuti ad essere relativi.
Un aumento del coordinamento e della condivisione delle informazioni tra enti pubblici, settore privato e società civile è necessario per una maggiore trasparenza e per l'esposizione e l'interruzione di tali campagne di influenza.
- Le operazioni di influenza informatica straniere introducono la propaganda (a volte includendo false narrazioni) nel dominio pubblico su Internet e, talvolta, tramite eventi del mondo reale o provocazioni. Le narrazioni false che passano inosservate su Internet possono far sembrare più credibili i riferimenti successivi.
Esempio 1
All'inizio della pandemia, siti Web cospiratori radicali affiliati agli organi di stampa statali russi e iraniani hanno pubblicato un'intervista con un professore di diritto che suggeriva che il COVID-19 fosse un'arma biologica creata dagli Stati Uniti.
Esempio 2
Il 7 marzo, la Russia ha pre-posizionato una narrazione presso le Nazioni Unite (UN) secondo cui un ospedale ostetrico a Mariupol' (Ucraina) era stato svuotato e utilizzato come sito militare.
- Una campagna coordinata è stata lanciata per diffondere le narrazioni tramite canali di social media e organi di stampa influenzati e gestiti dallo stato.
Esempio 1
A febbraio 2020, PRESSTV, un organo di stampa sponsorizzato dal governo iraniano, ha pubblicato una storia in inglese sull'intervista, e gli organi di stampa statali russi e gli account del governo cinese hanno cominciato a commentare tale fatto.Esempio 2
Il 9 marzo la Russia ha bombardato l'ospedale. Quando si è diffusa la notizia del bombardamento, il rappresentante delle Nazioni Unite della Russia ha twittato che la copertura del bombardamento era una "fake news" e ha citato le dichiarazioni precedenti della Russia sul suo presunto utilizzo come sito militare. - Infine, i proxy e i media controllati da stati-nazione amplificano le narrazioni nei gruppi di pubblico mirati. Spesso, tecnici involontari estendono la copertura delle narrazioni.
Esempio 1
Anche Russia Today (RT) (organo di stampa statale) ha pubblicato almeno una storia che promuoveva dichiarazioni di ufficiali iraniani che sostenevano che il COVID-19 potrebbe essere "un prodotto di un 'attacco biologico degli USA' per colpire Iran e Cina" e ha diffuso un post sui social media proprio su questo.Esempio 2
La Russia ha quindi promosso questa narrazione su larga scala su siti Web controllati dal Cremlino per due settimane dopo l'attacco all'ospedale. L'amplificazione di queste storie online consente alla Russia di discolparsi a livello internazionale ed evitare responsabilità.
Media sintetici
Stiamo entrando in un'era d'oro per la creazione e manipolazione dei media con l'intelligenza artificiale. Gli analisti Microsoft hanno constatato che questo è dovuto a due tendenze principali: la proliferazione di strumenti e servizi intuitivi che consentono di creare in modo artificiale immagini, video, audio e messaggi altamente realistici e di diffondere rapidamente contenuti ottimizzati per gruppi di pubblico specifici.
Il campo dei media e dei testi sintetici sta avanzato a una velocità incredibile, e abbiamo quasi raggiunto il punto in cui chiunque può creare un video sintetico di chiunque mentre dice o fa qualcosa.
Fake news: tecniche per media e testi sintetici
Queste tecniche possono essere usate per tentare di ricattare una persona, una società o un'istituzione o per mettere qualcuno in posizioni o situazioni imbarazzanti. Tecniche basate sull'intelligenza artificiale così avanzate non sono ancora ampiamente usate nelle campagne di influenza informatica oggi, ma ci aspettiamo che il problema aumenti man mano che gli strumenti diventano più facili da usare e più ampiamente disponibili.
- Sostituzione di un volto in un video
- Usare un video per aggiungere un'animazione a un'immagine fissa o un altro video
- Una serie di tecniche per generare immagini fotorealistiche
- Creare immagini dettagliate da testi descrittivi
L'uso di operazioni informatiche per causare danni o espandere l'influenza non è nuovo. Tuttavia, la velocità con cui le informazioni possono essere diffuse e la nostra incapacità di distinguere rapidamente i fatti reali dalla finzione indicano che l'impatto e i danni provocati dalle fake news e altri contenuti multimediali dannosi generati in modo sintetico possono essere molto più grandi.
Esistono diverse categorie di danno da considerare: manipolazione del mercato, frode nei pagamenti, vishing, rappresentazioni, danno d'immagine, danno alla reputazione e botnet. Molte di queste categorie hanno ampiamente riportato esempi reali, che potrebbero minare la nostra capacità di separare la realtà dalla finzione.
Una minaccia più a lungo termine e più insidiosa riguarda la nostra capacità di riconoscere ciò che è vero se non possiamo più fidarci di quello che vediamo e sentiamo. Di conseguenza, qualsiasi immagine, audio o video compromettente di una figura pubblica o privata può essere liquidata come falsa, un fenomeno noto come "dividendo del bugiardo" (liar's dividend).2
Sono in corso delle iniziative di vari settori, governi e accademie per sviluppare modi migliori per rilevare e ridurre i media sintetici e ripristinare la fiducia. Ci sono diverse strategie promettenti, così come delle barriere da considerare.
Il framework della strategia di Microsoft ha lo scopo di aiutare gli stakeholder di diversi settori a rilevare, interrompere, contrastare e difendere dalla propaganda, soprattutto dalle campagne di aggressori stranieri.
Come per la difesa informatica, il primo passo nella lotta alle operazioni di influenza informatica straniere consiste nello sviluppo della capacità di rilevarle. Nessuna azienda o organizzazione da sola può sperare di fare i progressi necessari singolarmente. Una nuova collaborazione più ampia nel settore tecnologico sarà cruciale, con progressi nell'analisi e nella segnalazione delle operazioni di influenza informatica, facendo affidamento sul ruolo della società civile, comprese istituzioni accademiche e organizzazioni no profit.
Il secondo pilastro strategico consiste nel rinforzare le difese democratiche, una priorità di lunga data che ha bisogno di investimenti e innovazione. Dovrebbe tenere conto delle sfide che la tecnologia ha fatto nascere per le società democratiche (soprattutto l'interruzione del giornalismo e delle notizie locali) e delle opportunità che la tecnologia ha creato per difendere le società democratiche con maggiore efficacia.
Questo richiede continui investimenti e innovazioni che devono riflettere le esigenze locali di diversi paesi e continenti. Questi problemi non sono semplici e richiedono approcci multi-stakeholder, che Microsoft e altre aziende tecnologiche stanno supportando sempre di più
Negli ultimi anni, la Digital Crimes Unit (DCU) di Microsoft ha perfezionato le tattiche e sviluppato gli strumenti per interrompere le minacce informatiche, come ransomware, botnet e attacchi stato-nazione. Abbiamo imparato molte lezioni critiche, a partire dal ruolo dell'interruzione attiva nel contrasto a un'ampia gamma di cyberattacchi.
Mentre pensiamo a come contrastare le operazioni di influenza informatica, l'interruzione potrebbe avere un ruolo ancora più importante, e l'approccio migliore all'interruzione sta diventando più chiaro. L'antidoto più efficace per un'ampia attività ingannevole è la trasparenza. Ecco perché Microsoft ha intensificato la sua capacità di rilevare e interrompere le operazioni di influenza degli stati-nazione acquisendo Miburo Solutions, una società di ricerca e analisi delle minacce informatiche leader specializzata nel rilevamento delle operazioni di influenza informatica straniere e nella risposta a tali campagne. Combinando questi analisti con gli analisti del contesto delle minacce di Microsoft, Microsoft ha dato vita al Digital Threat Analysis Center (DTAC). Il DTAC analizza e fornisce resoconti sulle minacce stato-nazione, tra cui cyberattacchi e operazioni di influenza, combinando informazioni e intelligence sulle minacce con l'analisi geopolitica per fornire dati analitici e supportare misure di protezione e risposta efficaci.
Per concludere, non possiamo aspettarci che le nazioni cambino approccio se non vi è la responsabilità della violazione dei regolamenti internazionali. L'attuazione di tale responsabilità spetta unicamente a organismi governativi. Eppure, l'azione multistakeholder sta svolgendo un ruolo importante nel rafforzare ed estendere le norme internazionali.
Più di 30 piattaforme online, inserzionisti ed editori (tra cui Microsoft) hanno siglato il Codice di condotta sulla disinformazione della Commissione europea recentemente aggiornato, concordando sugli impegni rafforzati per far fronte a questa sfida crescente. Come le recenti Paris Call, Christchurch Call e la Dichiarazione per il futuro di Internet, l'azione multilaterale e multistakeholder può unire gli enti governativi e pubblici tra le nazioni democratiche. Gli enti governativi possono basarsi su tali norme e leggi per garantire la responsabilità che le democrazie mondiali richiedono e meritano.
Attraverso una trasparenza radicale rapida, le società e i governi democratici possono mitigare con efficacia le campagne di influenza informatica attribuendo l'origine degli attacchi di massa, informando il pubblico e creando fiducia nelle istituzioni.
Fonte: Report sulla difesa digitale Microsoft, novembre 2022
- [1]
Deepfakes 2020: The Tipping Point, Johannes Tammekänd, John Thomas e Kristjan Peterson, ottobre 2020 - https://go.microsoft.com/fwlink/?linkid=2263006
- [2]
Deep Fakes: A Looming Challenge for Privacy https://go.microsoft.com/fwlink/?linkid=2262673