La propagande à l’ère du numérique : Comment les opérations de cyber-influence sapent la confiance
Aujourd’hui, les opérations d’influence étrangère utilisent de nouvelles méthodes et technologies, ce qui rend plus efficaces leurs campagnes visant à saper la confiance.
Les États-nations ont de plus en plus recours à des opérations d'influence sophistiquées pour diffuser de la propagande et influencer l'opinion publique, tant au niveau national qu'international. Ces campagnes sapent la confiance, accentuent la polarisation et menacent les processus démocratiques.
Les acteurs compétents de la manipulation persistante avancée utilisent les médias traditionnels ainsi qu’Internet et les réseaux sociaux pour accroître considérablement la portée, l'échelle et l'efficacité de leurs campagnes, ainsi que l'impact considérable qu'ils ont sur l'écosystème mondial de l'information.
Les médias synthétiques sont de plus en plus répandus en raison de la prolifération d'outils qui permettent de créer et de diffuser facilement des images, des vidéos et des sons artificiels très réalistes. La technologie de provenance numérique qui certifie l'origine des médias est prometteuse pour lutter contre les abus.
Une approche globale de la protection des solutions contre les opérations de cyber-influence est nécessaire. Microsoft s'appuie sur son infrastructure de renseignement sur les cybermenaces, déjà bien développée, pour lutter contre les opérations de cyber-influence. Notre stratégie consiste à détecter, perturber, défendre et dissuader les campagnes de propagande menées par des agresseurs étrangers.
Augmentation de 900 % d'une année sur l'autre de la prolifération des deepfakes depuis 20191
Les opérations de cyber-influence deviennent de plus en plus sophistiquées à mesure que les technologies évoluent. Nous assistons à un chevauchement et à une expansion des outils utilisés dans les cyberattaques traditionnelles qui sont appliqués aux opérations de cyber-influence. En outre, nous avons observé une coordination et une amplification accrues entre les États-nations.
Les régimes autoritaires du monde entier ont collaboré pour polluer l'écosystème de l'information à leur avantage mutuel. En s'amplifiant les uns les autres, les médias d'État créent un écosystème dans lequel la couverture négative des démocraties (ou la couverture positive des alliés) produite par un média d'État est renforcée par d'autres.
Pour corser ce défi, les entités technologiques du secteur privé pourraient, sans le vouloir, permettre ces campagnes. Les facilitateurs peuvent être des entreprises qui enregistrent des domaines internet, hébergent des sites web, font la promotion de matériel sur les réseaux sociaux et les sites de recherche, canalisent le trafic et aident à financer ces exercices par le biais de la publicité numérique.
Les organisations doivent connaître les outils et les méthodes utilisés par les régimes autoritaires pour mener des opérations de cyber-influence afin de pouvoir détecter et empêcher la propagation de ces campagnes.
Il est également de plus en plus nécessaire d'aider les consommateurs à développer une capacité plus sophistiquée à identifier les opérations d'influence étrangère et à limiter l'engagement avec leurs récits ou leur contenu.
Une coordination accrue et un meilleur partage de l'information entre le gouvernement, le secteur privé et la société civile sont nécessaires pour accroître la transparence et pour exposer et perturber ces campagnes d'influence.
- Les opérations de cyber-influence étrangères introduisent de la propagande (avec parfois de faux récits) dans le domaine public sur Internet et, parfois, par le biais d'événements ou de provocations dans le monde réel. Les faux récits qui passent inaperçus sur l'internet peuvent faire paraître plus crédibles les références suivantes.
Exemple 1
Au début de la pandémie, des sites web conspirationnistes marginaux affiliés aux médias d'État russes et iraniens ont publié une interview d'un professeur de droit suggérant que le COVID-19 est une arme biologique créée par les États-Unis.
Exemple 2
Le 7 mars, la Russie a prépositionné un récit en déclarant auprès de l'Organisation des Nations Unies (ONU) qu’une maternité à Mariupol, en Ukraine, avait été vidée et était utilisée comme site militaire.
- Une campagne coordonnée est lancée pour propager des récits par le biais des médias soutenus et influencés par le gouvernement et des canaux de réseaux sociaux.
Exemple 1
En février 2020, PRESSTV, une chaîne sponsorisée par le gouvernement iranien, a publié un article en anglais sur l'interview, et les médias d'État russes ainsi que les comptes du gouvernement chinois ont rapidement commencé à commenter l'article.Exemple 2
Le 9 mars, la Russie bombardait l'hôpital. Lorsque la nouvelle du bombardement a été annoncée, le représentant russe à l'ONU a tweeté que la couverture du bombardement était une "fake news" et a cité les affirmations antérieures de la Russie concernant l'utilisation présumée du site comme site militaire. - Enfin, les médias contrôlés par les États-nations et ses mandataires amplifient les récits au sein des publics ciblés. Souvent, les facilitateurs technologiques involontaires étendent la portée de ces récits.
Exemple 1
Russia Today (RT), un média d'État, a également publié au moins un article faisant état de déclarations de responsables iraniens affirmant que le COVID-19 pourrait être un « produit d'une 'attaque biologique américaine' visant l'Iran et la Chine » et a diffusé des messages sur les réseaux sociaux le suggérant.Exemple 2
La Russie a ensuite largement diffusé ce récit sur les sites Internet contrôlés par les Russes pendant les deux semaines qui ont suivi l'attaque de l'hôpital. L'amplification de ces histoires en ligne permet à la Russie de détourner le blâme sur la scène internationale et d'éviter de rendre des comptes.
Médias synthétiques
Nous entrons dans l'âge d'or de la création et de la manipulation des médias par l'IA. Les analystes de Microsoft notent que cette évolution est due à deux grandes tendances : la prolifération d'outils et de services faciles à utiliser pour créer des images, des vidéos, des sons et des textes synthétiques très réalistes, et la possibilité de diffuser rapidement des contenus optimisés pour des publics spécifiques.
Le domaine des textes et médias synthétiques progresse incroyablement vite, et nous sommes sur le point d'atteindre le point où n'importe qui pourra créer une vidéo artificielle de n'importe qui en train de dire ou de faire n'importe quoi.
Les deepfakes : Techniques de textes et de médias synthétiques
Ces techniques peuvent être utilisées pour tenter de faire chanter une personne, une entreprise ou une institution, ou pour placer des personnes dans des lieux ou des situations embarrassantes. Ces techniques avancées basées sur l'IA ne sont pas encore largement utilisées dans les campagnes de cyber-influence aujourd'hui, mais nous nous attendons à ce que le problème prenne de l'ampleur à mesure que les outils deviendront plus faciles à utiliser et plus largement disponibles.
- Remplacer un visage par un autre dans une vidéo
- Utilisation d'une vidéo pour animer une image fixe ou une autre vidéo
- Une série de techniques pour générer des images photoréalistes
- Créer des images riches à partir de descriptions textuelles
L'utilisation d'opérations d'information pour nuire ou étendre son influence n'est pas nouvelle. Cependant, la vitesse à laquelle l'information se propage et notre incapacité à distinguer rapidement le vrai du faux signifient que l'impact et le préjudice causés par les faux et autres médias malveillants générés artificiellement peuvent être beaucoup plus importants.
Nous prenons en compte plusieurs catégories de préjudices : manipulation du marché, fraude aux paiements, hameçonnage, usurpation d'identité, atteinte à la marque, atteinte à la réputation et botnets. Nombre de ces catégories ont des exemples réels largement répandus, ce qui pourrait compromettre notre capacité à distinguer la réalité de la fiction.
Une menace à plus long terme et plus insidieuse pèse sur notre compréhension de ce qui est vrai si nous ne pouvons plus faire confiance à ce que nous voyons et entendons. De ce fait, toute image, audio ou vidéo compromettante d'une personnalité publique ou privée peut être considérée comme fausse, un résultat connu sous le nom de « dividende du menteur ».2
Des efforts sont en cours dans l'industrie, le gouvernement et les universités pour développer de meilleurs moyens de détecter et d'atténuer les médias artificiels et de restaurer la confiance. Il existe plusieurs voies prometteuses, ainsi que des obstacles qui méritent d'être pris en considération.
Le cadre stratégique de Microsoft vise à aider les parties prenantes intersectorielles à détecter, perturber, défendre et dissuader la propagande, en particulier les campagnes menées par des agresseurs étrangers.
Comme pour la cyberdéfense, la première étape de la lutte contre les opérations de cyber-influence étrangère consiste à développer la capacité de les détecter. Aucune entreprise ou organisation ne peut espérer réaliser individuellement les progrès nécessaires. Une collaboration nouvelle et plus large dans le secteur technologique sera cruciale, les progrès dans l'analyse et le signalement des opérations de cyber-influence reposant largement sur le rôle de la société civile, y compris dans les institutions universitaires et les organisations à but non lucratif.
Le deuxième pilier stratégique consiste à renforcer les défenses démocratiques, une priorité de longue date qui nécessite des investissements et des innovations. Elle devrait prendre en compte les défis que la technologie a créés pour les sociétés démocratiques (en particulier la perturbation du journalisme et des informations locales) et les opportunités que la technologie a créées pour défendre les sociétés démocratiques de manière plus efficace.
Cela nécessite un investissement et une innovation continus qui doivent refléter les besoins locaux des différents pays et continents. Ces questions ne sont pas faciles et nécessitent des approches multipartites, que Microsoft et d'autres entreprises technologiques soutiennent de plus en plus
Ces dernières années, la Digital Crimes Unit (DCU) de Microsoft a affiné ses tactiques et développé des outils pour perturber les cybermenaces, des rançongiciels aux botnets en passant par les attaques d'États-nations. Nous avons tiré de nombreux enseignements essentiels, à commencer par le rôle de la perturbation active dans la lutte contre un large éventail de cyberattaques.
Dans le cadre de la lutte contre les opérations de cyber-influence, la perturbation pourrait jouer un rôle encore plus important, et la meilleure approche de la perturbation devient plus claire. L'antidote le plus efficace à la tromperie généralisée est la transparence. C'est pourquoi Microsoft a renforcé sa capacité à détecter et à perturber les opérations d'influence des États-nations en acquérant Miburo Solutions, une société de recherche et d'analyse des cybermenaces de premier plan spécialisée dans la détection des opérations d'influence cybernétique étrangères et dans la réponse à ces opérations. En combinant ces analystes avec les analystes du contexte des menaces de Microsoft, cette dernière a créé le Centre d’analyse des menaces numériques (Digital Threat Analysis Center (DTAC)). Le DTAC analyse les menaces des États-nations, y compris les cyberattaques et les opérations d'influence, et établit des rapports à ce sujet. Elle associe des informations et des renseignements sur les menaces à une analyse géopolitique pour fournir des informations et des réponses efficaces et des mesures de protection.
Enfin, nous ne pouvons pas nous attendre à ce que les nations changent de comportement si leur responsabilité n’est pas mise en cause en cas de violation des règles internationales. La mise en cause de cette responsabilité relève exclusivement des pouvoirs publics. Pourtant, l’action multipartite joue de plus en plus un rôle important dans le renforcement et l’extension des normes internationales.
Plus de 30 plateformes en ligne, annonceurs et éditeurs, dont Microsoft, ont signé le Code de bonnes pratiques contre la désinformation récemment mis à jour par la Commission européenne, acceptant ainsi de renforcer leurs engagements pour faire face à ce défi croissant. À l’instar des récents Appel de Paris et Appel de Christchurch, et de la Déclaration sur l’avenir de l’internet, l’action multilatérale et multipartite peut rassembler les gouvernements et les citoyens des nations démocratiques. Les gouvernements peuvent alors s’appuyer sur ces normes et ces lois pour faire progresser le processus de mise en cause de la responsabilité nécessaire et réclamé par les démocraties.
Grâce à une transparence radicale et rapide, les gouvernements et les sociétés démocratiques peuvent efficacement contrecarrer les campagnes d’influence en attribuant la source des attaques des États-nations, en informant le public et en renforçant la confiance dans les institutions.
Source : Archive du Rapport de défense numérique Microsoft - Novembre 2022
- [1]
Deepfakes 2020 : Le point de basculement, Johannes Tammekänd, John Thomas et Kristjan Peterson, octobre 2020 - https://go.microsoft.com/fwlink/?linkid=2263006
- [2]
Faux profonds : Un défi imminent pour la protection de la vie privée https://go.microsoft.com/fwlink/?linkid=2262673