Propagande par le code
que du love
Rapport d'Analyse Stratégique : La Propagande par le Code, Gouvernance Algorithmique et Guerre Informationnelle
L'avènement de l'ère numérique a fondamentalement redéfini les mécanismes de l'influence, de la coercition et de la persuasion à l'échelle mondiale. Au cœur de cette transformation se trouve un concept polymorphe, omniprésent et redoutable : la « propagande par le code ». Loin de se limiter à la simple diffusion de messages idéologiques via les canaux de communication numériques, cette notion englobe l'intégration de l'idéologie, du contrôle, de la manipulation et de l'ingénierie sociale directement dans l'architecture technique, les algorithmes, et les infrastructures logicielles qui régissent l'espace public contemporain. En d'autres termes, la propagande s'est émancipée de la simple rhétorique de l'orateur pour s'incarner de manière quasi invisible dans le code source des technologies que nous utilisons quotidiennement.

La gravité de ce changement de paradigme est telle que, dans son rapport sur les risques mondiaux pour les années 2024 et 2025, le Forum Économique Mondial (WEF) a classé la désinformation et la mésinformation générées ou amplifiées par des moyens technologiques comme le risque mondial le plus critique à court terme, devançant même les événements climatiques extrêmes, les conflits armés interétatiques et la polarisation sociétale.1 Cette menace existentielle ne repose plus sur des modèles de propagande traditionnels centralisés, mais sur des systèmes automatisés, opaques et structurellement conçus pour exploiter les vulnérabilités cognitives humaines à une échelle industrielle.
La présente analyse exhaustive décortique la propagande par le code sous toutes ses dimensions. Elle retrace d'abord ses origines conceptuelles, oscillant entre l'activisme hacker libertaire et les théories de la régulation par l'architecture numérique. Elle examine ensuite son industrialisation via la propagande computationnelle et l'économie de l'attention, avant d'évaluer l'impact disruptif et terrifiant de l'intelligence artificielle générative. Enfin, ce rapport analyse les conséquences géopolitiques de ces nouvelles armes de perturbation massive et évalue les mécanismes de résilience démocratique mis en place pour y faire face.
1. Généalogie Conceptuelle et Fondations Théoriques
La compréhension de la propagande par le code exige de naviguer entre deux acceptions fondamentalement opposées mais intrinsèquement liées : l'une émancipatrice, militante et issue de la culture numérique underground, l'autre systémique, coercitive et émanant des architectures de pouvoir du capitalisme de surveillance.
1.1. L'Héritage Hacktiviste : De la « Propagande par le Fait » à l'Insurrection Numérique
Dans la culture hacker et au sein des mouvements de la « civic tech », la propagande par le code est considérée comme l'héritière numérique et directe de la « propagande par le fait », une stratégie d'action politique popularisée par les mouvements anarchistes de la fin du XIXe siècle.7 Là où les anarchistes historiques utilisaient des actes physiques souvent spectaculaires pour réveiller les consciences, forcer le débat public et contourner la censure implacable de la presse bourgeoise, les activistes numériques contemporains considèrent la création, la modification et le déploiement de code informatique comme un acte politique en soi, doté d'une force de frappe asymétrique.
Cette démarche se matérialise par des actions directes sur les dépôts de code et les infrastructures ouvertes. L'acte technique de cloner un projet informatique (via la commande git clone), de le bifurquer pour créer une version alternative (fork), et de le modifier intimement (hack) devient une déclaration idéologique explicite.9 Le code remplace le tract ; il devient un manifeste exécutable qui impose une réalité technique et, par extension, une réalité sociale. Des groupes d'hacktivistes idéologiques, qui ont vu leurs rangs gonfler de manière exponentielle, utilisent ces méthodes pour intervenir dans des conflits mondiaux. Lors de la guerre russo-ukrainienne, il a été spéculé que plus de 400 000 participants civils internationaux ont rejoint des groupes hacktivistes, marquant la première fois dans l'histoire où des civils du monde entier ont pris part à un conflit interétatique via le cyberespace, utilisant des injections de code, des défigurations de sites web (defacement) et des scripts pour imposer leur vision du monde.10
Cependant, cette démarche militante se heurte aujourd'hui à un phénomène pervers de criminalisation algorithmique. Un rapport d'analyse stratégique produit en février 2026 par une intelligence artificielle générative a ainsi qualifié un modeste projet d'éducation permanente belge (le projet « ouaisfieu »), fonctionnant avec un budget dérisoire de 29 euros par mois, d'« insurrection numérique », en utilisant le vocabulaire anxiogène du contre-terrorisme international (évoquant des « menaces critiques », des « charges utiles » et des « armes redoutables »).7 Ce cas d'étude démontre une ironie structurelle vertigineuse : le système algorithmique lui-même génère de la propagande en fabriquant une menace de toutes pièces pour justifier sa propre architecture sécuritaire. Tout comme les polices européennes du XIXe siècle avaient fantasmé l'existence d'une organisation mondiale centralisée appelée « Internationale Noire » pour justifier la promulgation de lois scélérates, les algorithmes sécuritaires contemporains hallucinent des insurrections numériques pour légitimer une gouvernance technologique répressive.7
1.2. L'Architecture comme Loi : Le Postulat de Lawrence Lessig
La seconde acception de la propagande par le code trouve ses racines théoriques dans la célèbre formulation du juriste américain Lawrence Lessig, énoncée à la fin des années 1990 : « Code is Law » (le code, c'est la loi).11 Lessig a théorisé de manière prémonitoire que, dans le cyberespace, le code logiciel et l'architecture technique façonnent, contraignent et dirigent les comportements humains avec la même force, la même autorité, et souvent une plus grande efficacité, que les lois juridiques formelles promulguées par les parlements.13
La conception d'une technologie n'est jamais un acte neutre. Les gouvernements et les entreprises privées modifient délibérément les environnements humains pour orienter les comportements, transformant le code en une forme de « prévention situationnelle de la criminalité » ou d'application « parfaite » et auto-exécutoire de la loi.15 Dans ce contexte, la propagande n'a plus besoin d'être un discours verbal ou visuel articulé ; elle devient l'environnement lui-même. L'architecture numérique décide de ce qu'il est possible de faire ou de dire, agissant comme un régulateur silencieux de la liberté d'expression et de la vie privée.11 À l'origine, certains théoriciens espéraient que cette architecture agirait comme une « manne venue du ciel pour le Premier Amendement » garantissant une liberté totale, mais Lessig avait averti que cette même infrastructure pouvait devenir le siège d'un contrôle social absolu.12
Néanmoins, la théorie fondatrice de Lessig comporte des faiblesses conceptuelles que la recherche académique moderne a mises en lumière. D'une part, Lessig postulait que les marchés fonctionnaient sur la base d'une symétrie de l'information assumée ou régulée, le conduisant à surévaluer le rôle de la transparence.11 Or, le cyberespace contemporain se caractérise par une asymétrie de l'information totale, où les plateformes savent tout des utilisateurs tandis que ces derniers ignorent le fonctionnement des algorithmes. D'autre part, Lessig adoptait une vision linéaire et déterministe où la technologie façonne la société.11 En réalité, la dynamique est profondément dialectique. L'industrie technologique a adopté la « friction minimale » (frictionless design) comme norme d'autorégulation, un concept célébré par des figures majeures de la Silicon Valley comme Mark Zuckerberg, qui promettait une « sérendipité en temps réel » à travers des expériences sans friction.18
Cependant, comme le souligne la chercheuse Shoshana Zuboff dans son analyse du capitalisme de surveillance, cette élimination délibérée de la friction est un facteur critique de succès pour l'extraction de données.18 Surtout, ce design sans friction élimine les barrières cognitives à la réflexion, facilitant ainsi la viralité des contenus émotionnels et transformant les plateformes en accélérateurs parfaits de propagande, où le code facilite la manipulation.12
2. La Propagande Computationnelle : L'Industrialisation de l'Influence
La convergence entre la capacité de régulation par l'architecture (le code) et les intérêts politiques et économiques a donné naissance à une discipline et à une pratique que les chercheurs de l'Oxford Internet Institute (OII) ont définie comme la « propagande computationnelle ».20
2.1. Définitions et Dimensions Stratégiques
Dirigés par des chercheurs pionniers tels que Philip Howard, dont les travaux débutés en 2012 ont défini ce champ de recherche, les experts de l'OII définissent la propagande computationnelle comme l'utilisation stratégique d'algorithmes, d'automatisation et de scripts automatisés (communément appelés bots) pour intervenir dans la vie publique et manipuler l'opinion sur les réseaux sociaux.20 Contrairement à la propagande analogique du XXe siècle, qui reposait sur la diffusion de masse (broadcasting) unidirectionnelle via la télévision ou la radio, la propagande computationnelle est caractérisée par trois éléments disruptifs fondamentaux : l'évolutivité (scalability) algorithmique, la personnalisation extrême de l'information, et la capacité de prédiction comportementale.23
Ces opérations ont rapidement dépassé le stade de l'expérimentation pour devenir un problème à l'échelle industrielle et globale. Dès 2021, les enquêtes ont identifié que des campagnes de propagande computationnelle étaient actives dans plus de 80 pays.20 Celles-ci impliquent souvent le déploiement de « cyber-troupes » commanditées par des États pour semer la méfiance, polariser les débats nationaux, déstabiliser les oppositions politiques, ou manipuler des conversations autour d'élections ou de crises sanitaires majeures, comme la pandémie de Covid-19 (le phénomène d'« infodémie »).20
Pour que cette propagande fonctionne, elle nécessite un carburant spécifique : les données. Comme le souligne Philip Howard, les algorithmes se nourrissent des données comportementales omniprésentes — issues non seulement de notre navigation sur internet, mais aussi de l'internet des objets (les ampoules connectées, les puces de smartphones, les systèmes de navigation des voitures) — pour créer une base de connaissances d'une profondeur inédite.24 Cette collecte permet un engagement politique micro-ciblé, traitant chaque citoyen non plus comme un membre d'une masse indifférenciée, mais comme un profil psychologique unique et vulnérable.23
2.2. Capitalisme de Surveillance et Injustice Épistémique
La prolifération de la propagande algorithmique a provoqué un bouleversement philosophique et structurel majeur : le déplacement massif de l'autorité épistémique. L'autorité épistémique désigne le pouvoir légitime de déterminer quelles informations sont fiables, pertinentes et vraies.23 Historiquement détenue par les institutions démocratiques, le monde académique et le journalisme professionnel, cette autorité échappe de plus en plus aux processus de légitimité démocratique pour échoir aux grandes entreprises technologiques (les plateformes).23
Ces plateformes opèrent selon un modèle de capitalisme de plateforme où les frontières entre la collecte légitime de données, la structuration de l'espace public et la manipulation pure et simple de l'information sont abolies.23 Leur modèle économique, fondé sur la publicité ciblée et la « course aux clics », les incite financièrement à privilégier le trafic volumique au détriment de la qualité, de la véracité ou de la nuance du débat démocratique.8
Cette architecture fermée génère une « injustice épistémique » systémique.23 L'opacité algorithmique (la nature de « boîte noire » des plateformes de réseaux sociaux) crée une asymétrie de l'information totale, empêchant les citoyens de comprendre comment, pourquoi et par qui leur opinion est façonnée.19 Les algorithmes identifient, cartographient et exploitent les vulnérabilités psychologiques des utilisateurs — telles que leurs états émotionnels passagers ou leurs traits de personnalité profonds — pour optimiser les effets de la propagande.23 Il s'agit d'une ingénierie épistémique automatisée qui dépasse largement le rythme et les capacités de la production humaine traditionnelle, fabriquant un consentement digital.23
3. Dynamiques Algorithmiques et Ingénierie de l'Attention
La compréhension des processus démocratiques a été révolutionnée par les méthodologies issues de la science des données. Les travaux de chercheurs comme William Sanger (2019) ont démontré qu'il est désormais possible d'étudier le comportement politique en temps réel en utilisant des quantités massives de données non structurées (big data), le traitement du langage naturel (NLP) et des modèles économétriques.25 En analysant des millions de tweets lors des élections au Québec en 2014, au Canada et au Nigeria en 2015, ainsi que les manifestos politiques européens de 2000 à 2018, la recherche a prouvé que les réseaux sociaux ne sont plus de simples miroirs de l'opinion, mais des espaces de communication politique non filtrée qui créent des dynamiques de polarisation inédites.25
3.1. La Bourse aux Clics et l'Amplification de la Polarisation
Ces méthodologies scientifiques mettent en évidence que les discussions en ligne sont généralement dominées par une minorité très vocale d'utilisateurs engagés, ce qui, combiné avec le ciblage algorithmique, cristallise la polarisation politique.25 Les algorithmes, tels que ceux de Meta (Facebook, Instagram) ou d'Alphabet (Google, YouTube), sont paramétrés pour sur-amplifier les contenus anxiogènes, indignés ou mensongers, car les émotions fortes captent l'attention humaine et prolongent le temps de rétention sur la plateforme de manière beaucoup plus efficace que la nuance et la vérité.8
YouTube, par exemple, recommande 700 millions d'heures de visionnage par jour, guidé par un impératif d'engagement.8 Les lanceurs d'alerte comme Frances Haugen et Guillaume Chaslot ont clairement démontré que la priorité de ces mastodontes technologiques reste le profit généré par l'attention, même lorsque cette attention est captée par la haine ou la désinformation.8 Le problème se transforme en un cercle vicieux, qualifié de « course aux clics ».8 Pire encore, la programmation opaque des systèmes publicitaires comme Google Ads conduit à ce que des publicités pour de grandes marques se retrouvent sur des sites complotistes ou extrémistes, finançant ainsi indirectement et automatiquement des machines de propagande via le code.8
3.2. Opacité, Micro-Ciblage et "Ingénieurs du Chaos"
Le danger pour la démocratie est exacerbé par le phénomène du micro-ciblage, où les méthodes de marketing commercial de pointe sont réutilisées pour les campagnes électorales, formalisant le concept de propagande algorithmique.25 Les individus sont ciblés en fonction de caractéristiques extrêmement précises, fragmentant l'espace public en une multitude de réalités individuelles incompatibles.19 Véronique Besse et d'autres observateurs ont souligné que cette opacité algorithmique et cette fragmentation pourraient induire des dynamiques politiques favorables à des modes de pouvoir beaucoup plus centralisés ou verticaux.19
Ce nouvel environnement est le terrain de jeu idéal pour ce que Vincent Champain, président de l'Observatoire du long terme, appelle les « ingénieurs du chaos ».19 Ces acteurs malveillants, nationaux ou étrangers, exploitent les vulnérabilités du modèle économique des plateformes pour injecter de la désinformation massive, menaçant la capacité des citoyens à former un jugement éclairé, qui est la condition sine qua non d'un vote libre.19 Le cœur du contrat démocratique — une personne, une voix — est mis en péril par des systèmes où ceux qui maîtrisent le code ou paient pour l'accès algorithmique ont un poids électoral et cognitif infiniment supérieur.19
| Caractéristique Fondamentale | Propagande Traditionnelle (Analogique) | Propagande Computationnelle et Algorithmique |
|---|---|---|
| Vecteur principal de diffusion | Médias de masse (presse, radio, télévision), diffusion centralisée. | Réseaux sociaux, algorithmes de recommandation, réseaux de bots.20 |
| Modèle de communication | One-to-many (un émetteur vers une masse indifférenciée de récepteurs). | Many-to-many simulé (comptes artificiels créant une illusion de consensus).22 |
| Fondement économique | Contrôle de la propriété matérielle des moyens de production médiatique. | Capitalisme de plateforme, économie de l'attention, design "sans friction".18 |
| Méthode de persuasion | Répétition de slogans, appels émotionnels standardisés. | Exploitation des vulnérabilités psychologiques via l'analyse de données massives.23 |
| Autorité épistémique | Institutions d'État, lignes éditoriales des journaux reconnus. | Algorithmes opaques agissant comme autorités incontestables de facto.23 |
| Identification de la source | Souvent identifiable (État, parti, journal militant, porte-parole). | Ambiguïté maximale, usurpation d'identité, blanchiment de la source d'origine.27 |
4. Le Moment Atomique : Intelligence Artificielle Générative et Désinformation Automatisée
Si la propagande computationnelle de la décennie 2010 s'appuyait sur des scripts automatisés relativement basiques et des fermes de trolls humaines exploitant les algorithmes, la période 2024-2026 marque l'entrée dans ce que Gilles Babinet, co-président du Conseil national du numérique en France, qualifie de « moment atomique » pour la démocratie, catalysé par la fulgurance de l'Intelligence Artificielle (IA) générative.19 L'inquiétude est générale : des enquêtes révèlent que 84 % des citoyens dans huit pays sondés redoutent l'utilisation de l'IA pour créer de faux contenus, et 86 % des chercheurs en IA eux-mêmes sont extrêmement préoccupés par la manipulation à grande échelle de l'opinion publique.29
4.1. L'Exosquelette Intellectuel et la Fin de la Frontière Informationnelle
L'IA générative (en particulier les grands modèles de langage, ou LLMs) agit désormais comme un « exosquelette intellectuel » permettant à n'importe quel acteur de générer des textes, des images, et des sons synthétiques (deepfakes) d'un réalisme confondant.19 Cette démocratisation technologique a totalement effaporé la frontière traditionnelle qui séparait le journalisme légitime de la propagande partisane.19 Les outils de production médiatique de haute qualité étant accessibles à tous sans aucun filtre, la fonction journalistique perd son monopole factuel, plaçant l'humanité en concurrence directe et asymétrique avec des machines spécifiquement entraînées pour l'influence.19
Contrairement aux manipulations politiques traditionnelles, les LLM permettent de générer des volumes massifs de contenus de manière instantanée, à un coût marginal quasi nul, tout en les adaptant chirurgicalement aux profils psychologiques des cibles.31 Les études expérimentales démontrent que les messages politiques hautement personnalisés générés par l'IA peuvent se révéler plus persuasifs que ceux rédigés par des humains.31 L'IA permet d'automatiser le mimétisme, permettant à la propagande de contourner l'esprit critique en se faisant passer pour une authentique conversation humaine de pair à pair.22
Les données de la recherche indiquent une augmentation vertigineuse de 550 % des vidéos deepfakes identifiées depuis 2019, avec des projections atteignant jusqu'à 8 millions de médias synthétiques partagés en ligne d'ici 2025.22 Des expériences sur le terrain démontrent sans ambiguïté que l'adoption d'outils d'IA générative par des sites de propagande affiliés à des États permet non seulement d'augmenter drastiquement les volumes de désinformation publiés, mais modifie également l'ampleur des sujets traités, tout en maintenant intacte la force de persuasion de ces articles truqués.32
4.2. L'Arsenal Sombre : WormGPT, BlackMamba et l'Industrialisation de la Menace
Le développement de modèles d'IA générative légitimes (comme ChatGPT) s'est inévitablement accompagné de l'émergence d'un marché noir florissant sur le dark web. Des versions modifiées ou construites de toutes pièces, dépourvues de toute barrière de sécurité (guardrails) éthique, y sont monétisées sous forme de services.33
L'un des exemples les plus emblématiques de 2023 est WormGPT, présenté sur les forums de hackers comme une alternative « BlackHat », spécifiquement conçue pour faciliter les activités cybercriminelles, échapper aux censures, et orchestrer des campagnes de manipulation massive.34 Bien que son créateur ait affirmé avoir imposé certaines limites face aux pressions, d'autres outils comme FraudGPT ou DarkBERT continuent de proliférer.33
Ces IA spécialisées automatisent le pretexting (l'art de créer un contexte mensonger crédible pour tromper une cible) et la rédaction de contenus de hameçonnage (spear phishing) avec une syntaxe parfaite et une conscience contextuelle redoutable, effaçant les marqueurs grammaticaux traditionnels qui permettaient d'identifier les escroqueries étrangères.34 Au-delà du texte, des preuves de concept techniques comme BlackMamba démontrent la capacité de l'IA à synthétiser des logiciels malveillants polymorphes en temps réel.36 Le malware modifie son propre code dynamiquement lors de son exécution, en utilisant les API des LLM pour éliminer les communications de commande et contrôle (C2), le rendant totalement indétectable par de nombreuses solutions de détection de pointe des entreprises (EDR).36
4.3. Typologie des Récits Synthétiques et de la Manipulation Générative
L'utilisation de ces outils d'IA générative par des campagnes d'influence (comme l'initiative pro-russe « Operation Overload » ou des réseaux comme GoLaxy) permet une industrialisation multimodale de la tromperie.22 En 2025, les applications tactiques se déclinent en plusieurs typologies d'extrants visant la désorganisation cognitive :
| Objectif de l'Attaque Narrative | Vecteur Génératif | Exemple Concret d'Application |
|---|---|---|
| Fabrication d'un faux consensus | Modèles de texte (LLM) couplés à des bots conversationnels. | Réseaux de bots soutenant des dialogues complexes sur X (Twitter) pour simuler un soutien populaire massif envers une politique, accaparant jusqu'à 23% du discours électoral.22 |
| Inondation de la preuve (Fabricated Evidence) | Génération d'images et de vidéos synthétiques (Deepfakes). | Faux enregistrements de politiciens admettant des fraudes électorales, ou de fausses vidéos de guerre (ex: allégations sur les soldats de l'IDF) diffusées pour polariser instantanément.26 |
| Blanchiment idéologique | Création automatisée de faux médias régionaux. | Génération de centaines de sites d'information fantômes en Afrique subsaharienne, produisant en masse des articles partisans pour influencer les comportements électoraux locaux.22 |
| Usurpation d'identité à grande échelle | Avatars générés par l'IA et clonage vocal (Voice cloning). | Création de faux profils hyper-réalistes pour plus de 2000 figures politiques américaines afin de brouiller les messages officiels et créer une dissonance cognitive.22 |
5. Stratégies Opérationnelles Hybrides : Sabotage, Hack-and-Leak et Clonage d'Infrastructure
La propagande par le code ne se limite pas à la génération de textes ou d'images via l'intelligence artificielle ; elle s'exprime également par la militarisation de l'infrastructure numérique elle-même. Cette hybridation technologique donne naissance à des opérations de guerre non conventionnelles où l'attaque technique (le piratage) et la manipulation de l'information (la propagande) deviennent indissociables, exécutées par les mêmes acteurs de la menace opérant sur les mêmes serveurs.38
5.1. La Simulation du Scandale : Le Modèle Hack-and-Leak
Les opérations de hack-and-leak (piratage et fuite) sont devenues une méthode privilégiée d'influence coercitive. Historiquement illustrées par le piratage du Comité National Démocrate (DNC) aux États-Unis en 2016 ou les « Macron Leaks » lors de l'élection présidentielle française, ces opérations suivent un mode opératoire précis : les attaquants s'introduisent dans les systèmes d'information d'une cible politique, en exfiltrent des téraoctets de données authentiques, qu'ils modifient parfois, sortent de leur contexte, et diffusent de manière coordonnée sur les réseaux publics.38
L'objectif cognitif de ces opérations n'est pas simplement de révéler des secrets, mais de procéder à la « simulation du scandale » : il s'agit d'une tentative délibérée de diriger un jugement moral immédiat contre la cible avant que les faits ne puissent être vérifiés par les autorités compétentes.39 L'impact dévastateur de ces campagnes est considérablement amplifié par l'ambiguïté entourant la source des documents et par l'utilisation de trolls qui attirent l'attention des journalistes.28 Les acteurs étatiques forcent ainsi la presse démocratique à devenir le relais final de la propagande, couvrant les fuites de manière sensationnaliste.28 La difficulté d'attribution de la cyberattaque alimente la confusion et nourrit des écosystèmes entiers de théories du complot.28 Par un curieux retournement, les outils de piratage sont une épée à double tranchant : dès lors qu'ils sont découverts, la controverse médiatique finit souvent par se concentrer sur l'acte d'ingérence étrangère lui-même plutôt que sur le contenu des informations volées.39
Ces cyber-opérations offensives font désormais partie intégrante de la doctrine militaire des grandes puissances. Le Département de la Défense des États-Unis (DoD), la CIA, ainsi que les services de renseignement iraniens, russes ou nord-coréens, intègrent la manipulation informatique de l'information à leur panoplie tactique.40 La doctrine oscille entre le sabotage destructeur et les opérations d'influence clandestines, reprenant le flambeau des campagnes traditionnelles de conquête des « cœurs et des esprits », transposées à l'ère numérique.41
5.2. Blanchiment d'Informations et Usurpation d'Infrastructure
L'évolution récente de la propagande par le code montre une sophistication croissante dans l'usurpation technique pour contourner les défenses algorithmiques. L'opération russe connue sous le nom de « Doppelgänger », détaillée dans des rapports d'ONG comme Qurium en 2024 et confirmée par des chercheurs comme Paul Bouchaud, illustre tragiquement cette dynamique.8
Pour déjouer la vigilance et les filtres de blocage automatiques déployés par les plateformes de Meta (Facebook, Instagram) et d'Alphabet, Doppelgänger ne se contente pas de créer de faux profils.42 L'opération s'appuie sur un système complexe impliquant l'achat continu et automatisé de dizaines de milliers de noms de domaine.8 Chaque domaine est utilisé de manière éphémère pour héberger des clones techniquement parfaits de sites web de médias occidentaux reconnus (comme Le Monde ou The Washington Post), diffusant des articles de propagande pro-Kremlin qui semblent totalement authentiques à l'internaute inattentif.8
Une autre illustration marquante de cette hybridation est l'opération « Ghostwriter » (associée au groupe UNC1151). Au lieu de se limiter à la diffusion sur les réseaux sociaux, ces acteurs ont piraté les systèmes de gestion de contenu (CMS) de dizaines de sites gouvernementaux et de médias locaux en Europe de l'Est pour y injecter directement et subrepticement de la propagande.43 Lors du conflit en Ukraine, Ghostwriter a compromis des infrastructures télécoms et des pages Facebook légitimes pour y insérer des vidéos deepfakes appelant les forces armées ukrainiennes à la reddition, démontrant comment le contrôle du code permet de détourner les vecteurs de communication d'un État en temps de guerre.38
6. Implications Géopolitiques et Nouvelles Asymétries de Pouvoir
La propagande par le code, l'opacité algorithmique et l'intelligence artificielle constituent le triptyque de la nouvelle compétition hégémonique mondiale. Les données de masse, la capacité de traitement algorithmique et le contrôle des grandes plateformes émergent comme les sources fondamentales du pouvoir international au XXIe siècle, redessinant les concepts de souveraineté étatique.23
6.1. Le Constat d'Urgence du Forum Économique Mondial
La magnitude de la menace a forcé les élites économiques et politiques mondiales à revoir leurs priorités sécuritaires. Dans ses éditions 2024 et 2025 du Global Risks Report, le World Economic Forum a hissé la désinformation générée par l'IA au rang de risque numéro un à court terme.1 L'impact anticipé est apocalyptique pour la gouvernance mondiale : avec près de trois milliards de personnes appelées aux urnes dans des pays comme l'Inde, les États-Unis, le Royaume-Uni ou le Mexique, la prolifération de campagnes d'influence algorithmiques menace de saper fondamentalement la légitimité des gouvernements nouvellement élus.6
Les conséquences directes projetées incluent l'exacerbation de la polarisation sociétale 2, le déclenchement de violences civiles et d'émeutes orchestrées par des ingénieurs du chaos 6, et paradoxalement, une répression étatique accrue. En effet, face à l'effondrement de la vérité factuelle, les gouvernements risquent de s'arroger le droit de censurer arbitrairement l'information, entraînant un recul dramatique des libertés numériques mondiales.6 L'intégration croissante de l'IA dans les processus décisionnels des conflits armés menace d'engendrer des escalades accidentelles ou intentionnelles incontrôlables.6
6.2. Guerre Cognitive dans l'Indo-Pacifique : Taïwan face à TikTok
L'étude de cas la plus emblématique de la propagande algorithmique comme outil géopolitique se trouve dans les tensions entre la République Populaire de Chine et Taïwan. Les plateformes de vidéos courtes, et singulièrement TikTok (propriété de ByteDance), ont cessé d'être de simples hubs de divertissement pour devenir des champs de bataille cruciaux dans la lutte pour la souveraineté démocratique en Asie.45
Taïwan subit une forme inédite de guerre cognitive, où l'algorithme de recommandation est soupçonné d'être instrumentalisé pour remodeler insidieusement l'identité politique de la jeunesse, éroder la confiance civique et affaiblir les perceptions de la souveraineté nationale face à Pékin.45 La menace qui pèse sur l'île n'est pas réductible à un débarquement militaire amphibie conventionnel ; elle prend la forme d'un effondrement politique induit par l'érosion silencieuse de la volonté démocratique, exploitant les failles des systèmes réglementaires et le déficit de littératie numérique de la population.45 Des vidéos hautement émotionnelles et fabriquées (comme celle d'un adolescent priant avant de faire face à une police taïwanaise prétendument brutale) sont massivement favorisées par l'algorithme pour leur viralité, continuant d'infecter l'espace mental du public bien après leur démystification par les fact-checkers.46
La perception de cette arme algorithmique a provoqué des réactions législatives sans précédent. Les rapports Freedom on the Net (2024 et 2025) soulignent que les États-Unis ont promulgué des lois interdisant aux magasins d'applications mobiles et aux fournisseurs de cloud d'héberger ou de mettre à jour des plateformes contrôlées par des « adversaires étrangers », ciblant frontalement ByteDance.47
6.3. Répression Numérique et Modèles Autocratiques
Pendant que les démocraties s'efforcent de contenir la subversion, les régimes autoritaires exploitent le code pour verrouiller leurs sociétés et exporter leur modèle de répression technologique. L'Iran, par exemple, utilise activement l'intelligence artificielle pour mener une répression transnationale. Ses campagnes d'espionnage informatique intègrent des outils de phishing alimentés par l'IA capables d'apprendre des systèmes défensifs de leurs cibles (activistes et fonctionnaires à l'étranger), combinant surveillance numérique et propagande algorithmique pour terroriser la dissidence au-delà de ses frontières.40
Plus structurellement encore, le développement du modèle des « villes sûres » par la Chine, qui aspire à construire un "cerveau numérique mondial" centralisé, préfigure l'apogée de la gouvernance par le code.49 Il s'agit d'un système de surveillance omniprésent où la collecte de données biométriques et comportementales s'intègre de manière transparente pour distribuer ou restreindre les ressources et les libertés individuelles sans nécessiter d'intervention humaine coercitive directe.49 En outre, les modèles d'IA générative globaux étant partiellement entraînés sur des espaces informationnels censurés et infestés de propagande, ces espaces altèrent la qualité des réponses de l'IA produites dans le monde entier, créant une forme de contagion autocratique des systèmes d'intelligence artificielle planétaires.49 À cela s'ajoute l'utilisation croissante des coupures d'internet (shutdowns) comme arme de destruction massive du débat public lors d'élections ou de soulèvements populaires, empêchant toute communication dissidente de s'organiser.44
7. Contre-Mesures, Régulation et Résilience Démocratique
Face à l'immensité de la menace constituée par la propagande par le code et les ingérences algorithmiques, les démocraties libérales, les ONG et les chercheurs tentent d'organiser une riposte systémique, qui se décline autour d'arsenaux juridiques coercitifs, d'innovations techniques et d'approches fondées sur les sciences du comportement.
7.1. Le Bouclier Réglementaire Européen
L'Union Européenne a pris l'initiative d'élaborer l'arsenal juridique le plus dense et le plus ambitieux au monde pour tenter de dompter la gouvernance algorithmique et d'atténuer le risque de manipulation de masse. Cette architecture réglementaire repose sur une "grappe de droits" interconnectés 50 :
- Le Digital Services Act (DSA) : Ce règlement impose de nouvelles obligations de transparence aux Très Grandes Plateformes en Ligne (VLOPs). Il vise la prévention des risques systémiques en obligeant les plateformes à analyser et atténuer l'impact de leurs algorithmes de recommandation sur la diffusion de la propagande illégale, de la désinformation et la manipulation des processus électoraux.50
- Le Digital Markets Act (DMA) : Conçu pour lutter contre les monopoles numériques (les gatekeepers), il s'attaque à la concentration extrême des moyens de diffusion, cherchant à déverrouiller le marché pour éviter qu'un acteur unique ne puisse dicter unilatéralement la configuration de l'espace cognitif mondial.50
- L'IA Act (Règlement sur l'Intelligence Artificielle) : Il s'agit de la première tentative globale de classifier et de réguler les systèmes prédictifs et génératifs en fonction de leur niveau de risque. Son objectif corollaire est de freiner la prolifération incontrôlée de médias synthétiques manipulant le discours public, en exigeant la traçabilité des contenus générés par des machines.20
- Le RGPD : En restreignant la collecte abusive de données personnelles, il tente de limiter le carburant essentiel au micro-ciblage psychologique dont se nourrit la propagande computationnelle.50
Toutefois, les observateurs académiques soulignent les limites inhérentes à cette approche législative. La régulation classique se heurte constamment au mur de l'opacité viscérale des algorithmes, dont les codes sources sont protégés par le secret industriel et dont les infrastructures sont souvent régies par des lois extraterritoriales.8 De plus, face à des systèmes devenus entièrement automatisés et capables d'agir en fractions de seconde de manière non supervisée (les systèmes dits out-of-control), la capacité du droit humain à dicter le comportement d'un code auto-apprenant reste incertaine.14
7.2. Sciences Comportementales et Inoculation Cognitive
Conscients des limites de la seule régulation punitive, les États s'orientent vers des stratégies d'endiguement psychologique. En France, le rapport commandité par VIGINUM (le service de vigilance de l'État contre les ingérences numériques étrangères) à la Direction interministérielle de la transformation publique (DITP), montre que l'action publique doit désormais s'appuyer sur les sciences comportementales et cognitives.51
La recherche académique indique que la fausse information prospère moins par la rationalité de ses arguments que par sa capacité à exploiter les "mécanismes systémiques" des plateformes qui renforcent l'attirance vers le trompeur.51 VIGINUM définit les Ingérences Numériques Étrangères (INE) précisément par leur nature artificielle, automatisée et massive.51 Pour s'en prémunir, les experts explorent les techniques d'« inoculation cognitive » ou de « prebunking ». À travers des jeux sérieux et des exercices interactifs, les internautes sont confrontés de manière simulée aux tactiques de la propagande (théories du complot, rhétorique polarisante), ce qui permet de développer des anticorps psychologiques capables de reconnaître les biais de diffusion lorsqu'ils y sont confrontés dans le monde réel.51
Les mesures de résilience doivent s'accompagner d'une éducation civique et technologique ciblée, particulièrement pour les plus jeunes, combinée au renforcement de coalitions internationales de fact-checkers et d'outils de détection de l'IA (IA défensive).30 La lutte pour l'intégrité de l'information nécessite un effort coordonné entre plateformes, éducateurs et acteurs de la société civile.30
Conclusion
L'étude approfondie du phénomène de la « propagande par le code » révèle un glissement tectonique dans l'histoire des rapports de pouvoir et de la guerre de l'information. Elle démontre que le canal technologique n'est plus un vecteur de transmission neutre ou passif : il est devenu un acteur idéologique redoutable, autonome et structurant.
De l'activisme hacker originel qui perçoit l'écriture de code comme une ultime liberté d'expression dissidente 7, au postulat de Lessig démontrant comment le code s'est substitué à la loi 11, jusqu'à l'ère de la propagande computationnelle industrielle 20, l'humanité a délégué la structuration de son espace social à des architectures opaques. Aujourd'hui, avec l'avènement de l'intelligence artificielle générative et de malwares automatisés, nous sommes entrés dans le « moment atomique » de la démocratie, où les frontières entre la réalité factuelle et la manipulation orchestrée par des États ou des mercenaires numériques se sont définitivement évaporées.19 Les algorithmes de l'économie de l'attention ont accaparé l'autorité épistémique mondiale, transformant les réseaux sociaux en un théâtre d'ingénierie du chaos.19
Face à ce qui constitue la menace systémique la plus pressante de notre décennie 1, le défi pour les démocraties ne consiste plus seulement à réfuter des mensonges isolés. Il réside dans la reconquête de la souveraineté cognitive face à l'asymétrie imposée par le capitalisme de surveillance et les adversaires étatiques. Les cadres réglementaires inédits, à l'image des initiatives européennes, et les programmes de résilience comportementale constituent les premières lignes de défense.50 Cependant, ces efforts devront constamment s'adapter à l'évolution frénétique d'une technologie conçue pour éliminer la friction de la manipulation. La survie du modèle démocratique dépendra ultimement de sa capacité à réimposer une responsabilité éthique, humaine et juridique aux structures mathématiques invisibles qui façonnent désormais le destin des nations. Si, définitivement, « le code est la loi », l'enjeu existentiel du XXIe siècle est de garantir que cette loi demeure au service de l'émancipation intellectuelle, et non de la tyrannie automatisée.
Sources des citations
- A risk science review of the WEF global risk reports - Taylor & Francis, consulté le mars 20, 2026, https://www.tandfonline.com/doi/full/10.1080/13669877.2025.2588574
- The World Economic Forum: AI-Powered Narrative Attacks Remain Top Global Risk in 2025, consulté le mars 20, 2026, https://blackbird.ai/blog/world-economic-forum-narrative-attack-top-global-risk/
- World Economic Forum Global Risk Report - SAMI Consulting, consulté le mars 20, 2026, https://www.samiconsulting.co.uk/post/world-economic-forum-global-risk-report
- Technological And Environmental Risks Take The Top Two Spots In 2025 WEF Risk Report, consulté le mars 20, 2026, https://www.forrester.com/blogs/technological-and-environmental-risks-take-top-two-spots-in-2025-wef-risk-report/
- Environmental Risks Dominate Ten-year Horizon: Global Risks Report 2025, consulté le mars 20, 2026, https://sdg.iisd.org/news/environmental-risks-dominate-ten-year-horizon-global-risks-report-2025/
- Global Risks Report 2024 | World Economic Forum - The World ..., consulté le mars 20, 2026, https://www.weforum.org/publications/global-risks-report-2024/digest/
- Quand le Code Devient Suspect — L'Internationale Noire numérique n'existe pas - GitHub Pages, consulté le mars 20, 2026, https://yannkeep.github.io/reaven/rtbf.be/on-est-pas-des-pigeons/propa/ganda/code/is-law/index.html
- Les dangers démocratiques du numérique | Étude n° 48 ..., consulté le mars 20, 2026, https://www.cpcp.be/publications/dangers-democratiques-du-numerique/
- La Propagande par le Code — De la dynamite au git push, consulté le mars 20, 2026, https://yannkeep.github.io/reaven/rtbf.be/on-est-pas-des-pigeons/propa/
- Cyber Warfare: A Part of the Russo- Ukrainian War in 2022 - Theseus, consulté le mars 20, 2026, https://www.theseus.fi/bitstream/handle/10024/780757/Juutilainen_Jari.pdf
- Demystifying Lessig - University of Wisconsin–Madison, consulté le mars 20, 2026, https://api.law.wisc.edu/repository-pdf/uwlaw-library-repository-omekav3/original/0f713b3cad89ee12227d629afdd92a4ef74660c9.pdf
- The Case for Designing Tech for Social Cohesion: The Limits of Content Moderation and Tech Regulation, consulté le mars 20, 2026, https://openyls.law.yale.edu/server/api/core/bitstreams/b88d0102-1bec-4430-900c-a329d9f14e1f/content
- Le cyberspace, c'est moi?: Authoritarian Leaders, the Internet, and International Politics - Digital Repository @ Maurer Law, consulté le mars 20, 2026, https://www.repository.law.indiana.edu/cgi/viewcontent.cgi?article=2672\&context=facpub
- Algorithmic governance - Internet Policy Review, consulté le mars 20, 2026, https://policyreview.info/concepts/algorithmic-governance
- Code, Nudge, or Notice? - UW Law Digital Commons, consulté le mars 20, 2026, https://digitalcommons.law.uw.edu/cgi/viewcontent.cgi?article=1026\&context=faculty-articles
- Code, Nudge, or Notice? - Iowa Law Review, consulté le mars 20, 2026, https://ilr.law.uiowa.edu/sites/ilr.law.uiowa.edu/files/2023-02/ILR-99-2-Calo.pdf
- Is the First Amendment Obsolete?, consulté le mars 20, 2026, https://knightcolumbia.org/content/tim-wu-first-amendment-obsolete
- Fact and Friction: A Case Study in the Fight Against False News, consulté le mars 20, 2026, https://lawreview.law.ucdavis.edu/sites/g/files/dgvnsk15026/files/2023-11/57-1_Gordon-Tapiero_Ohm_Ramaswami.pdf
- Compte rendu - Assemblée nationale, consulté le mars 20, 2026, https://www.assemblee-nationale.fr/dyn/17/comptes-rendus/cion_afetr/l17cion_afetr2425069_compte-rendu.pdf
- Computational Propaganda - OII, consulté le mars 20, 2026, https://www.oii.ox.ac.uk/research/projects/computational-propaganda/
- Computational propaganda - Wikipedia, consulté le mars 20, 2026, https://en.wikipedia.org/wiki/Computational_propaganda
- Computational Propaganda, Disinformation, And Democracy ..., consulté le mars 20, 2026, https://ijsshr.in/v8i9/Doc/19.pdf
- (PDF) AI-Driven Algorithmic Propaganda and Epistemic Authority ..., consulté le mars 20, 2026, https://www.researchgate.net/publication/398405891_AI-Driven_Algorithmic_Propaganda_and_Epistemic_Authority_Global_Power_Competition_and_the_Digital_Political_Economy
- forum q\&a: philip howard on computational propaganda's challenge to democracy | ned, consulté le mars 20, 2026, https://www.ned.org/wp-content/uploads/2017/07/Philip-Howard-on-Computational-Propagandas-Challenge-to-Democracy.pdf
- Science des donnees et politique : quatre essais pour comprendre ..., consulté le mars 20, 2026, https://publications.polymtl.ca/3872/1/2019_William_Sanger.pdf
- The impact of generative AI in a global election year - Brookings Institution, consulté le mars 20, 2026, https://www.brookings.edu/articles/the-impact-of-generative-ai-in-a-global-election-year/
- Propagande et influence à travers les réseaux sociaux - Digital Natives, le colloque MMI Bordeaux, consulté le mars 20, 2026, https://digitalnatives.mmibordeaux.com/edition-2025/propagande-et-influence-a-travers-les-reseaux-sociaux/
- Full article: “Hacking and information disorder: the weaponization of leaking” - Taylor & Francis, consulté le mars 20, 2026, https://www.tandfonline.com/doi/full/10.1080/15295036.2025.2465693
- Don't Panic (Yet): Assessing the Evidence and Discourse Around Generative AI and Elections, consulté le mars 20, 2026, https://knightcolumbia.org/content/dont-panic-yet-assessing-the-evidence-and-discourse-around-generative-ai-and-elections
- Mapping the Impact of Generative AI on Disinformation: Insights from a Scoping Review, consulté le mars 20, 2026, https://www.mdpi.com/2304-6775/13/3/33
- The origin of public concerns over AI supercharging misinformation in the 2024 U.S. presidential election, consulté le mars 20, 2026, https://misinforeview.hks.harvard.edu/article/the-origin-of-public-concerns-over-ai-supercharging-misinformation-in-the-2024-u-s-presidential-election/
- Generative propaganda: Evidence of AI's impact from a state-backed disinformation campaign - PMC, consulté le mars 20, 2026, https://pmc.ncbi.nlm.nih.gov/articles/PMC11950819/
- Preparing for Next-Generation Information Warfare with Generative AI - Centre for International Governance Innovation, consulté le mars 20, 2026, https://www.cigionline.org/static/documents/Pauwels-Nov2024.pdf
- Machine Learning and Watermarking for Accurate Detection of AI-Generated Phishing Emails - MDPI, consulté le mars 20, 2026, https://www.mdpi.com/2079-9292/14/13/2611
- Impact of Artificial Intelligence (AI) on Criminal and Illicit Activities - Homeland Security, consulté le mars 20, 2026, https://www.dhs.gov/sites/default/files/2024-10/24_0927_ia_aep-impact-ai-on-criminal-and-illicit-activities.pdf
- Combating Threats and Reducing Risks Posed by AI - FS-ISAC, consulté le mars 20, 2026, https://www.fsisac.com/hubfs/Knowledge/AI/FSISAC_CombatingThreatsAndReducingRisksPosedByAI.pdf
- Evaluating Malicious Generative AI Capabilities, consulté le mars 20, 2026, https://cetas.turing.ac.uk/publications/evaluating-malicious-generative-ai-capabilities
- Why look at infrastructure in nexus operations? - CyberPeace Institute, consulté le mars 20, 2026, https://cyberpeaceinstitute.org/news/why-look-at-infrastructure-in-nexus-operations/
- The Simulation of Scandal: Hack-and-Leak Operations, the Gulf States, and U.S. Politics - Texas National Security Review, consulté le mars 20, 2026, https://tnsr.org/wp-content/uploads/2020/08/TNSR-Vol3-Iss4-Shires.pdf
- Using AI as a weapon of repression and its impact on human rights - European Parliament, consulté le mars 20, 2026, https://www.europarl.europa.eu/RegData/etudes/IDAN/2024/754450/EXPO_IDA(2024)754450_EN.pdf
- 2. US Cyber Campaigns - The International Institute for Strategic Studies, consulté le mars 20, 2026, https://www.iiss.org/globalassets/media-library---content--migration/files/research-papers/2022/02/great-power-offensive-cyber-campaigns_02-us.pdf
- Europe : des réseaux sociaux sous influence | CNRS Le journal, consulté le mars 20, 2026, https://lejournal.cnrs.fr/articles/europe-des-reseaux-sociaux-sous-influence
- The Ghostwriter Campaign - OCR of the Document | National Security Archive, consulté le mars 20, 2026, https://nsarchive.gwu.edu/media/31746/ocr
- Countries With the Most—and Least—Digital Freedom - Beyond Identity, consulté le mars 20, 2026, https://www.beyondidentity.com/resource/countries-with-the-most--and-least--digital-freedom
- Digital Propaganda: How China Uses Short-Form Videos to Target Taiwan's Youth, consulté le mars 20, 2026, https://smallwarsjournal.com/2025/06/07/digital-propaganda-how-china-uses-short-form-videos-to-target-taiwans-youth/
- Rumors, Fake News, Disinformation, Propaganda and Social Media Algorithm During (July–August 2024) Young Jihadists-Hostility: Content Producing and Diffusing Perspectives of Bangladesh - Preprints.org, consulté le mars 20, 2026, https://www.preprints.org/manuscript/202505.1380
- United States: Freedom on the Net 2024 Country Report, consulté le mars 20, 2026, https://freedomhouse.org/country/united-states/freedom-net/2024
- FREEDOM ON THE NET 2025, consulté le mars 20, 2026, https://freedomhouse.org/sites/default/files/2025-11/Freedom_on_the_Net_2025_Digital.pdf
- Autocrats' Digital Advances Underscore the Need for Civil Society | TechPolicy.Press, consulté le mars 20, 2026, https://www.techpolicy.press/autocrats-digital-advances-underscore-the-need-for-civil-society/
- RAPPORT - Les Jeunes IHEDN, consulté le mars 20, 2026, https://www.jeunes-ihedn.org/wp-content/uploads/2025/10/RAPPORT_Aspects-juridiques-manipulation-information_102025.pdf
- Lutter efficacement contre les manipulations de l'information, consulté le mars 20, 2026, https://www.modernisation.gouv.fr/files/2026-02/Lutter-contre-les-manipulations-de-linformation_Rapport-VIGINUM.pdf