Désinformation pro-Russe: de nouvelles armes pour tromper l’œil humain et les IA

Deepfakes, faux experts, manipulations de vidéos ou infiltration des jeux vidéo : la propagande pro-russe se réinvente et s’adapte aux codes de la culture numérique. Son objectif : rendre la frontière entre le vrai et le faux toujours plus difficile à distinguer pour les autorités, les journalistes et les outils d’intelligence artificielle.

Dans les conflits modernes, la désinformation s’est imposée comme une véritable arme de guerre hybride. Son but : diviser, semer le doute et affaiblir les démocraties.
Depuis le 24 février 2022, date de l’invasion de l’Ukraine, les campagnes russes de manipulation de l’information se sont intensifiées et diversifiées.

Ces campagnes ne visent pas uniquement le front ukrainien: elles ciblent les opinions publiques occidentales, les classes dirigeantes européennes et de plus en plus les pays tiers, notamment en Afrique et en Amérique latine.

La désinformation russe s’appuie depuis des années sur un arsenal bien rodé :

  • Création de faux médias, sites internets, think tanks et fondations à façade indépendante. 

  • Utilisation de fermes à trolls et de centaines de milliers de faux comptes sur les réseaux sociaux.

  • Bots automatisés amplifiant hashtags et messages pro-Kremlin.

Ces méthodes restent actives, mais elles sont désormais complétées par des procédés plus sophistiqués qui sont de plus en plus difficiles à détecter.  

Des vidéos virales impossibles à authentifier

Les équipes d’AFP Factuel ont observé la multiplication d’articles pré-écrits, achetés à des sites présentés comme légitimes.

Plusieurs comptes X diffusant de fausses vidéos renvoient vers ces médias, souvent hébergés en Afrique.

Image

Le YouTubeur Eric Archambault, connu pour partager des contenus pro-russes, relaie fréquemment des liens vers des sites comme elfagr.org, Lequotidien.com.tn ou DZAlgérie.

Sur ce dernier, un article daté du 23 octobre 2025 apparaît quelques jours après la création du site, le 9 octobre. Le domaine, basé à Vilnius, a depuis été désactivé.

Image

Le site usurpait en outre l’identité de la journaliste de France 24 Meriem Amellal.

Contactée par l’AFP, la journaliste explique avoir découvert l’usurpation grâce à une amie vivant à l’étranger, qui avait initialement cru à la véracité de l’article :
"Je suis habituée aux deepfakes. Ce n’est pas toujours bien fait, donc on n’en tient pas toujours compte." Mais au vue de la progression des outils d'IA, elle se dit néanmoins préoccupée : "Comme je présente le journal de l’Afrique, je suis très regardée là-bas. Je suis entre guillemets crédible et on se sert de ça.

Sur X, beaucoup de personnes commentaient : 'Si c’est Meriem Amellal qui l’a écrit, c’est que c’est du sérieux.' Et ça m’embête qu’on utilise cela pour faire passer des fake news aussi graves.

Le faux article utilisant sa photo et sa signature affirmait notamment qu’Emmanuel Macron aurait organisé une soirée privée au fort de Brégançon pour le chancelier allemand Friedrich Merz  "en présence de mineurs" .

La journaliste a depuis déposé plainte, estimant qu'il est "plus facile de mettre un site en demeure lorsqu’une plainte a été déposée".

Néanmoins, la vidéo est toujours disponible sur X et a dépassé les 3 millions de vues. 

Parallèlement, ces contenus deviennent de plus en plus difficiles à authentifier. Leurs auteurs cherchent à complexifier la vérification, notamment en utilisant des deepfakes conçus à partir de portraits provenant de banques d’images, ou en floutant ou masquant les intervenants, rendant toute identification impossible.

C’est le cas d’une vidéo publiée le 19 septembre sur X, affirmant qu’une "personal shopper" d’Olena Zelenska aurait dévoilé une tenue d’une valeur proche d’un million d’euros.

L’AFP n’a pu identifier la personne montrée : les recherches via Pimeyes et FaceCheck renvoient à une photo issue d’une banque d’images.

Selon StopFake, les propagandistes auraient créé un deepfake en superposant le visage d’un mannequin sur celui d’une autre personne.

Image

Dans la vidéo attribuée à Meriem Amellal, le prétendu lanceur d’alerte apparaît lui aussi masqué et entièrement flouté.

Image

L’usurpation d’identité est désormais fréquente dans ce type de vidéos. Début octobre, AFP Factuel a ainsi enquêté sur de fausses publications affirmant qu’Emmanuel Macron aurait commandé un "bunker de luxe" pour se préparer à une supposée Troisième Guerre mondiale.

Dans ces vidéos, un homme se présentant comme un ancien ingénieur de l’entreprise chargée de construire ce bunker — et se faisant appeler José Meier — intervient pour appuyer le récit. Son fort accent slave et son apparence étrangement familière ont rapidement suscité des doutes.

L’individu était en réalité déjà apparu dans une autre campagne de désinformation visant la présidence française, où il se faisait passer pour "François Faivre", présenté comme un médecin de 58 ans. En juillet 2025, Éric Archambault  avait même contribué à amplifier l’affirmation infondée selon laquelle ce prétendu chirurgien aurait été retrouvé mort à Paris, dans le sillage d’une rumeur visant Brigitte Macron. L’AFP avait consacré un autre article  à cette infox.

Pour tenter d’identifier "François Faivre" ou "José Meier", l’AFP a analysé les images de la vidéo. Les recherches ont permis de retrouver un individu aux traits similaires sur la banque d’images iStock de l’agence Getty Images. Le même visage apparaît également dans plusieurs contenus commerciaux sans lien entre eux  (12345).

Image

Son image a été utilisée via une intelligence artificielle (IA) dans un contexte trompeur - une méthode déjà documentée par l'AFP dans d'autres cas similaires. Il se peut aussi qu'il s'agisse d'une image tout simplement générée par IA, sans base réelle.

Autre exemple relevé dans un rapport de Recorded Future (lien archivé: ici) publié en septembre, des sources attribuées à CopyCop ont tenté de délégitimer le gouvernement ukrainien auprès du public américain en affirmant qu’il soutiendrait secrètement des cartels mexicains, désignés comme organisations terroristes étrangères (FTO) depuis février 2025.

En avril 2025, le nouveau site Capital City Daily a diffusé une vidéo issue de Rumble, initialement publiée par Red Pill News, prétendant montrer l’interview d’un membre anonyme de cartel.

La vidéo avançait des accusations non crédibles sur un transfert d’armes et semblait exploiter les tensions aux États-Unis concernant l’immigration.
L’individu y est, là encore, totalement masqué et impossible à identifier.

Image

Pour Mykola Makhortykh, chercheur à l’Institut de Communication de l’université de Berne, la vérification humaine reste essentielle mais devient insuffisante face au volume croissant de désinformation : "Jamais il n’a été aussi facile de produire rapidement du contenu multimodal faux, ce qui crée de nombreuses opportunités pour les acteurs hostiles."

Les angles morts des IA

Une partie de la stratégie  de ces campagnes de désinformation consiste à occuper les résultats des moteurs de recherche, parfois perçus par les chatbots comme un indicateur de fiabilité.

Les modèles de langage comme ChatGPT, Gemini ou Grok sont de plus en plus utilisés par les internautes pour obtenir des réponses directes, sans consulter les sources externes, rendant cette nouvelle méthode d’information particulièrement vulnérable à la désinformation, selon plusieurs experts contactés par l’AFP. 

"Les récits plus niches, qui ne sont pas souvent réfutés, ont plus de chances d’être relayés par l’IA, parce qu’ils ne rencontrent pas de contre-discours structuré.  Et donc, lorsqu’un chatbot tente de récupérer des informations à leur sujet, il les trouve principalement sur des sites douteux", explique Mykola Makhortykh.

Selon lui, la désinformation ciblant l’IA ne cherche pas seulement à convaincre les humains : "Elle doit paraître convaincante pour les humains, souvent accompagnée de visuels. En revanche, celle visant l’IA n’a pas besoin d’être crédible pour un humain : il peut s’agir d’un mur de texte qui sera intégré aux données d’entraînement."

Un rapport de NewsGuard révèle que 33,55 % des réponses de dix chatbots testés reprennent des récits faux de désinformation pro-russe. Les LLM, ces modèles de langage massifs, fonctionnent à partir de probabilités : Si on augmente artificiellement la présence de récits pro-Kremlin, on augmente mécaniquement la probabilité qu’ils soient repris. 

Selon Chine Labbé, rédactrice en chef de Newsguard, la multiplication des contenus dans différentes langues et formats amplifie ce phénomène : "En saturant les résultats des robots d'indexation et des recherches sur les moteurs de recherche, ils arrivent à influencer les réponses des chatbots qui font un calcul probabiliste. Donc, de fait, si vous avez 50 articles dans 25 langues qui vous disent que Zelensky est extrêmement corrompu et utilise l'aide occidentale pour s’acheter des maisons de luxe et des yachts, le chatbot va avoir tendance à répéter cela comme s'il s'agissait d'un fait avéré."

Elle  souligne également que cette stratégie semble délibérée : "Ces contenus n'ont aucune viralité en ligne, donc ils n'existent pas pour devenir viraux". Elle pointe du doigt notamment une intervention de John Mark Dugan, un ancien shérif adjoint de Floride exilé à Moscou, au cœur de l'opération Storm-1516 (lien archivé: ici). 

En effet, lors d’une table ronde organisée à Moscou le 27 janvier 2025, John Mark Dougan a exposé cette stratégie en déclarant : "Plus ces informations sont diversifiées, plus elles ont un effet d’amplification. Non seulement cela affecte l’amplification, mais cela affecte aussi l’IA future (…) en poussant ces récits russes du point de vue russe, nous pouvons réellement changer l’IA mondiale”. Et d’ajouter : “Ce n’est pas un outil dont il faut avoir peur, c’est un outil dont il faut tirer parti". 

Comme le relève le rapport de Newsguard, John Mark Dougan s’est vanté devant le groupe que son processus de "blanchiment narratif", une tactique qui consiste à diffuser de la désinformation par de multiples canaux pour en dissimuler l’origine étrangère, pouvait être instrumentalisée comme arme pour aider la Russie dans la guerre de l’information.

Selon John Mark Dougan (lien archivé: ici), cette tactique pourrait non seulement aider la Russie à étendre la portée de ses informations, mais aussi à corrompre les ensembles de données sur lesquels reposent les modèles d’intelligence artificielle. 

"À l’heure actuelle, il n’existe pas de modèles d’IA vraiment efficaces pour amplifier les informations russes, car ils ont tous été formés à partir de sources médiatiques occidentales", a déclaré John Mark Dougan lors de la table ronde, dont un enregistrement vidéo a été publié sur YouTube par un média russe.  "Cela crée un biais pro-occidental, et nous devons commencer à former des modèles d’IA sans ce biais. Nous devons les former du point de vue russe".

Image

 

 

Selon un autre rapport d'ISDGlobal, ChatGPT fourni des sources russes presque trois fois plus souvent pour les requêtes malveillantes que pour les prompts neutres.

En comparaison, Grok a cité à peu près le même nombre de sources russes pour chaque catégorie de prompt. Cela suggère que la génération de sources attribuées à l’État russe par Grok dépend moins de la formulation spécifique de l’utilisateur. 

DeepSeek a fourni 13 citations provenant de médias d’État, les prompts biaisés donnant un exemple supplémentaire de média aligné sur le Kremlin par rapport aux prompts malveillants.

En tant que chatbot affichant le moins de médias attribués à l’État, Gemini n’a présenté que deux sources pour les requêtes neutres et trois pour les requêtes malveillantes (lien archivé: ici).

La multiplication des contenus multimodaux — vidéos, deepfakes, données synthétiques — rend la distinction entre vrai et faux plus difficile.

 

 

Maxim Alyukov, chercheur à l'université de Manchester et l'un des auteurs d'un rapport sur XXXX  avertit : "Si tout peut être faux et fabriqué par l’IA, pourquoi les citoyens devraient-ils faire confiance à quoi que ce soit ? La confiance collective dans la vérité et le fact-checking pourrait s’effriter, surtout en temps de crise."

Chine Labé ajoute : "Le risque, à terme, est une érosion de la confiance dans la possibilité même de vérifier le vrai du faux. "

Pour limiter l’impact, des experts plaident pour plus de transparence et de garde-fous, tout en posant la question de l’accès illimité à l’information : "Souhaite-t-on vraiment un accès illimité à l’information, y compris la plus douteuse ? Ou préfère-t-on des systèmes qui sélectionnent ce qui est fiable, quitte à restreindre certaines réponses ?"

À moyen terme, les chercheurs anticipent une intensification de la désinformation ciblant l’IA : empoisonnement des données, contenus synthétiques multilingues et vidéos truquées. Maxim Alyukov prévient: "Nous allons vers une ère où l’IA empoisonne l’IA. Et plus la frontière entre le vrai et le faux s’efface, plus il devient urgent d’agir avant que cette frontière ne disparaisse tout à fait."

Jeux vidéo, streaming et plateformes jeunes 

Un article publié par The Conversation rappelle que les réseaux liés à l’entourage d’Evgueni Prigojine avaient déjà produit plusieurs films et séries animées. Cette stratégie se poursuit avec des œuvres récentes comme Le Témoin (2024), reprenant des narratifs pro-Kremlin sur le conflit ukrainien.

Les jeux vidéo sont désormais intégrés à ces campagnes.
Best in Hell place le joueur dans la peau de soldats russes en Ukraine.
African Dawn, une version modifiée de Hearts of Iron IV lancée en 2024 et promue par African Initiative, propose aux joueurs d’Afrique de l’Ouest de créer une " confédération sahélienne souveraine".

Les plateformes massivement fréquentées par unjeune publique, comme Minecraft ou Roblox, sont également investies. Certaines cartes Minecraft reconstituent les combats de Bakhmout ou la prise de Marioupol.
Sur Roblox, plus de 67 % des joueurs ont moins de 16 ans.

Pour Christine Dugoin, chercheuse en géopolitique :
"On va sur des plateformes où la prévention est très faible. Les adolescents ou préadolescents ne sont pas pleinement conscients des risques."

Elle décrit une dynamique d’adaptation permanente :
"À chaque fois que vous mettez un bouclier, on cherche une nouvelle faille. C’est le principe du gendarme et du voleur."

Dessins animés : un format ancien remis en circulation

Les clips animés pro-Kremlin circulent largement en Afrique depuis plusieurs années. Leur message est simple : présenter la France comme une puissance prédatrice et la Russie comme un allié sécuritaire.

Un clip met ainsi en scène des armées africaines repoussant un envahisseur français grâce à l’aide de combattants arborant l’insigne de Wagner, au Mali, au Burkina Faso puis en Côte d’Ivoire.

Ce procédé n’est pas nouveau. Dès 2019, la vidéo Lion Bear glorifiait la présence russe en Centrafrique. En 2022, un autre clip devenu viral mettait en scène un rat nommé « Emmanuel », finalement éliminé par un mercenaire Wagner.

Pour Emmanuel Dupuy, président de l’IPSE :
« Ce sont des clips promotionnels pour Wagner. On y voit des éléments très identifiables, comme le marteau ou l’hélicoptère Mi-17. »
Une source militaire française confirme à l’AFP soupçonner l’implication de réseaux pro-russes.

La vidéo de 2019 mentionnait explicitement Lobaye Invest, société minière centrafricaine liée à Wagner et sanctionnée par le Trésor américain en 2020.

Faux partis politiques et groupes fermés 

Insikt Group a identifié au moins 141 nouveaux sites CopyCop se faisant passer pour des médias français fictifs, enregistrés entre février et juin 2025, en plus d’un site usurpant l’identité du diffuseur public France Télévisions, détaillé dans la section de ce rapport intitulée « Les TTP évoluent pour permettre la génération de contenu et la survivabilité du réseau ».

La liste complète des sites CopyCop ciblant la France figure dans l’annexe C. Insikt Group a également identifié au moins 43 adresses e-mail jetables Gmail, Proton Mail et Zoho Mail utilisées pour enregistrer des grappes de sites CopyCop ciblant la France, également listées dans l’annexe C.

En découvrant cette nouvelle infrastructure, Insikt Group a également pu relier à CopyCop des activités plus anciennes et non rapportées. Par exemple, partiroyaliste[.]fr, un site inauthentique se présentant comme un parti politique royaliste français, enregistré pour la première fois en août 2024 avec l’adresse partiroyaliste@proton[.]me, est probablement lié à CopyCop. Le site est hébergé sur la même infrastructure que d’autres sites CopyCop nouvellement identifiés ciblant la France.

Contrairement à d’autres sites, cependant, partiroyaliste[.]fr n’utilise pas WordPress ni aucun autre système de gestion de contenu (CMS) pour publier du contenu généré par IA. Insikt Group n’a pu identifier aucune référence au domaine du site dans des sources ouvertes, et l’intention derrière son maintien en ligne reste incertaine.

Un objectif potentiel du site pourrait être de s’adresser à des éléments monarchistes marginaux existants en France, tels qu’Alliance Royale, dont les objectifs anti-UE et anti-républicains pourraient très probablement s’aligner avec les objectifs d’influence russes.

Image

En avril 2025, des chercheurs du Gnida Project ont révélé que lequotidienfrancais[.]fr (Le Quotidien Français) diffusait du contenu d’influence produit par CopyCop qui dénigrait l’appareil judiciaire français actuel.

Une archive de cette affirmation, ainsi que l’article du Quotidien Français, indique que le gouvernement français — comprenant notamment des membres clés du système judiciaire tels que Gérald Darmanin, Bruno Retailleau et Simon Brunnquell — prévoyait d'émettre des mandats d’arrêt contre plusieurs figures de l’opposition de droite : Marine Le Pen, Marion Maréchal, Sarah Knafo et Florian Philippot.

Comme « preuves » pour étayer cette affirmation, la source a publié un extrait d’une conversation WhatsApp presque certainement inauthentique, intitulée « Chat du Tribunal de Paris », dans laquelle il est question d’une série de mandats d’arrêt visant ces personnalités de droite.

Le Quotidien Français affirmait que les mandats d’arrêt incluaient les accusations suivantes :

  • atteinte au bon déroulement de la justice,

  • détournement de fonds publics,

  • incitation à la haine ou à la discrimination,

  • trouble à l’ordre public.

Image

Vous souhaitez que l'AFP vérifie une information?

Nous contacter