Info ou intox ? Chaque semaine, RFI épingle une de ces tentatives de manipulation de l’information, pour en expliquer les ressorts. Vous souhaitez que «Les dessous de l'infox» vérifie la véracité d'une déclaration, d'une photo ou d'une vidéo... qui circule sur les réseaux sociaux, joignez-nous sur notre numéro WhatsApp + 33 6 89 07 61 09.
En Hongrie, des élections législatives cruciales se tiennent ce dimanche 12 avril. Le Premier ministre nationaliste Viktor Orbán, du parti Fidesz, espère briguer un cinquième mandat mais son concurrent, Péter Magyar, chef du Tisza, est jusqu’ici en tête dans les sondages. La campagne électorale a été marquée par un flot constant de fausses informations. Péter Magyar et sa formation politique sont notamment la cible de plusieurs vidéos générées par intelligence artificielle. Péter Magyar en train de se droguer dans une boîte de nuit, de câliner le président ukrainien Volodymyr Zelensky, ou de brûler volontairement des billets de banque. Les vidéos artificielles détournant l’image du favori du scrutin se comptent par centaines sur les réseaux sociaux ces dernières semaines. Accompagnés de messages politiques, ces contenus mensongers cherchent à dénigrer le candidat du Tisza et, au contraire, à vanter le Fidesz, parti de Viktor Orbán. Certaines de ces infox cumulent des centaines de milliers de vues. L’analyse des comptes à l’origine de ces infox (leur date de création, leur photo de profil) montre qu’il s’agit d’une vaste opération d’influence multi-plateformes. En décembre dernier, TikTok avait annoncé la suppression d’une trentaine de faux comptes. Ce réseau amplifiait artificiellement « les discours favorables au parti politique de Viktor Orbán ». Des animaux tenant des propos anti Péter Magyar, des faux articles de presse : les formats sont variés. On ne sait pas, à ce stade, qui est le commanditaire. L’IA, instrument de communication politique Depuis le lancement de la campagne, le parti de Viktor Orbán ne s’est pas privé d’utiliser l’intelligence artificielle pour s’attaquer à son adversaire. Le Fidesz a multiplié ce type de vidéo synthétique sur des sujets variés. La plus commentée raconte l’histoire d’une petite fille qui attend que son père, parti à la guerre, rentre à la maison. L’homme est finalement exécuté par balles. « Pour l'instant, ce n'est qu'un cauchemar, mais Bruxelles se prépare à le concrétiser », indique la légende, en référence à la guerre en Ukraine. L’Ukraine comme bouc émissaire L’Ukraine occupe une place majeure dans la campagne. Le Fidesz répète à tort et à travers que le Tisza va entraîner la Hongrie dans la guerre. Dans plusieurs vidéos artificielles, Péter Magyar est présenté comme une marionnette de Kiev et Bruxelles. Viktor Orbán, allié de Vladimir Poutine, a fait de l’Ukraine son bouc émissaire. Le Fidesz agite la peur pour conserver le pouvoir. Une stratégie de longue date selon Gábor Polyák, directeur de recherche au sein de l’ONG hongroise Mertek Media Monitor : « Cette construction constante de nouveaux ennemis et le fait de se présenter comme le défenseur de la nation hongroise sont la méthode typique du Fidesz depuis 2015. C’est à cette époque que ce genre de campagne a commencé. Il y a d’abord eu les migrants, puis George Soros et ses agents, puis Bruxelles, puis la communauté LGBTQ+... ». Reste à savoir si cette stratégie sera payante, ce que les derniers sondages semblent contredire.
10/04/2026 • 03:08
Le Japon vient-t-il de voter une série de lois anti-islam ? C’est ce qu’affirme, à tort, une rumeur devenue virale sur les réseaux sociaux ces derniers jours. Des comptes influents évoquent de nouvelles mesures particulièrement contraignantes pour les citoyens musulmans dans un pays pourtant laïque, comme la France. Cette fausse information n’est pas nouvelle. Elle resurgit régulièrement, sous différentes formes, depuis plus de dix ans. Cette rumeur circule à travers une vidéo vue plus de dix millions de fois sur X, Facebook et TikTok. On y voit un homme politique prendre la parole dans ce qui ressemble à l’une des chambres du Parlement japonais. S’ensuivent des cris de soutien d’une partie de l'hémicycle. La légende parle, à tort, de nouvelles lois anti-islam votées ces derniers jours. Interdiction des mosquées, des prières dans la rue, du port du voile, de la nourriture halal : « Les musulmans ne sont plus les bienvenus au Japon », commentent plusieurs utilisateurs. Vérification faite, tout est faux, sur le fond comme sur la forme. Comme l’indiquent les comptes rendus du Parlement, aucune loi de ce type n’a été promulguée au Japon. Une telle mesure aurait évidemment fait du bruit, que ce soit dans la presse locale ou à l’international. Dans les faits, le Japon est un pays laïque. La liberté de culte est régie par l’article 20 de la Constitution nippone. Dissolution de la Chambre basse Grâce à une recherche par image inversée, nous avons retrouvé la trace de cette vidéo sur le site internet de la télévision en ligne de la Chambre des représentants. On y apprend que ce clip montre l’annonce de la dissolution de la Chambre basse du Parlement japonais, le 23 janvier 2026. La traduction des propos de Fukushirō Nukaga, l’ancien président de cette chambre, le confirme. Il annonce en japonais : « La Chambre des représentants est dissoute conformément à l'article 7 de la Constitution du Japon ». Cette dissolution, décidée par l’actuelle Première ministre ultra-conservatrice Sanae Takaichi, a permis à son camp, le Parti libéral-démocrate, de remporter une majorité des deux tiers à la Chambre basse. Une infox récurrente Ce type de rumeurs circule en ligne depuis maintenant plus de dix ans. Le premier article de vérification que nous avons trouvé sur le sujet remonte au 17 novembre 2015. Cette fausse information resurgit presque chaque année au gré de l’actualité. Elle prend souvent différentes formes : des vidéos sorties de leur contextes, des mèmes, des déclarations mal traduites, etc. Certains influenceurs ouvertement xénophobes diffusent cette infox en parlant d’une décision historique, souhaitable en Europe. D’autres s’en servent au contraire pour critiquer le Japon, jugé comme un pays trop conservateur. Dans tous les cas, cette fausse information génère beaucoup de débat, d’engagement et donc beaucoup de vues. Cela explique qu’on la retrouve régulièrement relayée par des comptes qui ont fait de la désinformation une véritable source de revenus.
03/04/2026 • 03:13
L’annonce de la victoire sur tapis vert de la sélection marocaine contre le Sénégal après la finale mouvementée de la dernière CAN donne lieu depuis quelques jours à un déferlement d’infox, notamment sous formes de vidéos crées par intelligence artificielle, mettant en scène des supporters marocains prenant la défense des sénégalais. Des infox, dans lesquelles ils remettent en cause l’impartialité de la confédération africaine de football (CAF). À l’heure ou la fédération sénégalaise de football a décidé de saisir le tribunal arbitral du sport, ces images trompeuses totalisent des millions de vues rien que sur la plate-forme TikTok. Les interviews sont toutes filmées en format vidéo vertical, caractéristique des contenus destinés aux réseaux sociaux. Elles mettent en scène des supporters marocains rejetant la décision des instances africaines du football. Ils s’expriment tous en français et non en darija, le dialecte marocain. Certaines vidéos s'articulent autour d'un slogan totalement inventé par l'auteur et qu'on ne retrouve nulle part ailleurs : « la dignité du Maroc vaut plus qu'un trophée ». Des voix synthétiques, des images générées par IA : tout celà est faux et ne fait qu’attiser la polémique. Si on se réfère au nombre de vues annoncées par TikTok, certaines vidéos ont fait le buzz, avec plus de cinq millions de vues pour les plus populaires. Au moins une vingtaine de vidéos créées par IA reprenant cette thématique ont été publiées depuis huit jours. Commentaires : « Ce supporter marocain est honnête quand il dit que son pays ne méritait pas la coupe », ou encore « pour garder votre dignité il faut refuser cette coupe ». Des vidéos attractives 100% IA Il faut reconnaître que ces vidéos sont très bien faites. Pour ajouter à la confusion, à l'image, certains supporters créés par IA ont des traits extrêmement proches de fans du Maroc apparaissant dans des vidéos authentiques. Dans le cas présent, c’est souvent la voix synthétique qui trahit l’IA, mais aussi la durée de vidéo, qui n'excède pas quinze secondes : c’est la durée maximale des vidéos créées par l’outil Sora d’Open AI dans sa version gratuite. Par ailleurs, plusieurs éléments à l’image ont attiré notre attention. Les logos des micros tendus ne correspondent à rien de connu, et l’écusson qui apparaît sur les tee-shirts des supporters ne ressemblent pas exactement à celui de la fédération royale marocaine de football. Enfin, si l'on passe nos vidéos de supporters marocains dans un outil de détection d'IA, certaines sortent à 99% générés par l’intelligence artificielle, et l’outil SORA-2 est régulièrement cité. Un compte qui prospère sur les polémiques footballistiques Sur TikTok, tout part d’un unique compte, on ne sait pas vraiment si l’objectif de l’auteur est de discréditer la CAF, le Maroc, ou encore diviser les pays africains... Difficile enfin de savoir si l’auteur a cherché à effectuer une projection sur les supporters marocains en leur attribuant ses propres arguments ou simplement s’il a voulu générer des clics, et gagner en visibilité. Toutefois, si l'on passe en revue ses contenus, on remarque que son compte diffuse de nombreux autres infox, qui ne parlent pas de la CAN mais qui sont en lien avec le monde du football. Les équipes, les supporters, l'arbitrage : des sujets qui fonctionnent bien sur les réseaux sociaux, qui permettent à son auteur de monétiser son audience.
27/03/2026 • 03:38
Au Burkina Faso, une rumeur cible actuellement le président de la transition. Une série de vidéos diffusées sur les réseaux sociaux affirme, à tort, que le capitaine Ibrahim Traoré aurait été arrêté à Ouagadougou. Si cette fausse information grossière peut prêter à sourire, elle illustre en réalité un mode opératoire devenu systémique. Tout commence sur TikTok avec l’apparition d’une vidéo plutôt étrange. Dès la première seconde, ce clip prétend sonner l’alerte : « Urgence au Burkina Faso. C’est fini pour Ibrahim Traoré ». Cette voix robotique affirme ensuite, à tort, que le capitaine burkinabè viendrait d’être arrêté : « Le président Ibrahim Traoré vient d’être arrêté. Et ce n’est pas n’importe qui. C’est Donald Trump qui aurait ordonné son arrestation ». Cette prétendue arrestation aurait été justifiée par des propos « injurieux envers le président américain ». En réalité, tout est faux. Cette histoire a été inventée de toutes pièces. Ibrahim Traoré n’a pas été arrêté. Pour preuve, il est apparu jeudi 19 mars 2026, libre, lors du Conseil des ministres. Une infox reprise en boucle D’après nos recherches, plusieurs dizaines de vidéos de ce type circulent sur TikTok. On retrouve toujours le même narratif, cette même voix masculine générée par intelligence artificielle, ainsi que des images d’illustration plus ou moins récentes. Certaines de ces publications apparaissent dans les premiers résultats quand on cherche à s’informer sur le Burkina Faso. Cette fausse information cumule aujourd’hui près de 3 millions de vues, rien que sur TikTok. Le rôle central des algorithmes Le succès de ce type d’infox assez grossières s’explique d’abord par une recette de fabrication qui plaît aux algorithmes de recommandation. La vidéo est sensationnaliste, courte, le montage est dynamique. Même si le narratif est assez farfelu, ces clips suscitent également beaucoup de commentaires. Certains se moquent, d’autres se font avoir. Cet engagement pousse les algorithmes à mettre en avant ces publications. À ce stade, nous n’avons pas pu déterminer qui est précisément à l’origine de ce type de contenus. Ce que l’on sait, c’est que des centaines de comptes TikTok diffusent quotidiennement ce genre de vidéos. Les sujets, souvent en lien avec l’actualité, n'épargnent aucun pays ni aucune thématique. Pour gagner en crédibilité, une bonne partie de ces comptes tentent de se faire passer pour des médias : « Actualités français » (sic), « Minutes politique » (sic) ou « Brut FR politique ». Ces noms, volontairement trompeurs et proches de médias existants, brouillent les pistes et mettent les utilisateurs en confiance. Motivation financière En analysant les contenus que ces comptes publient, leur motivation semble davantage financière qu’informationnelle. On ne retrouve pas de positionnement idéologique très clair. Certaines vidéos se contredisent parfois. Leur but semble donc d'inonder TikTok avec des vidéos mensongères pour faire des vues, et monétiser leur audience. Une vague de faux qui sème le doute et ajoute au désordre informationnel. À lire aussiComment un réseau de désinformation tente de déstabiliser les pays de l'AES
20/03/2026 • 02:41
En Iran, le nouveau guide suprême n’est toujours pas apparu en public. Dans son premier message officiel, lu à la télévision d’État, Mojtaba Khamenei, a juré de mener la vengeance jusqu’au bout. Le nouvel homme fort du pays n’est pas apparu à l’écran. C’est une journaliste qui a lu sa déclaration. Invisible depuis sa nomination, Mojtaba Khamenei aurait été blessé durant le raid aérien qui a tué son père, Ali Khamenei. Son absence entraîne beaucoup de rumeurs et de fausses informations. Dès l’annonce de sa nomination, dimanche 8 mars, une vidéo fait son apparition sur les réseaux sociaux. On pense y voir Mojtaba Khamenei, turban noir sur la tête, en pleine déclaration officielle. Le décor est assez sobre. On retrouve un drapeau iranien à sa droite, ainsi que les portraits d’Ali Khamenei et du fondateur de la République islamique d'Iran, l’Ayatollah Khomeini, à sa gauche. Durant trente-deux secondes on pense l’entendre parler en persan. Il semble notamment affirmer que l’Iran combattra « jusqu’au dernier homme pour repousser l’agression barbare de l’Occident ». Les comptes à l’origine de ce clip saluent « le premier discours de Mojtaba Khamenei ». Vérification faite, cette vidéo n’est pas réelle. Il s’agit d’un deepfake, un hypertrucage généré par intelligence artificielle. En réalité, Mojtaba Khamenei n'est toujours pas apparu en public depuis sa nomination. L’image et le son ont été manipulés. Ce type d’outil permet de faire dire n’importe quoi à n’importe qui, de façon plus ou moins réaliste. Comment détecter un hypertrucage ? Le premier élément de vérification consiste à observer avec attention le mouvement de ses lèvres qui ne colle pas avec les mots qu’il prononce. Ce problème de synchronisation labiale est typique des deepfake. Nous avons ensuite fait analyser la bande son à plusieurs locuteurs persanophones. Le résultat est sans appel. L'utilisation d’un outil d’intelligence artificielle est facilement détectable quand on parle la langue. Enfin, pour savoir comment a été fabriqué cet hypertuquage, nous avons effectué plusieurs recherches par image inversée (voir ici comment faire). Cela nous a permis de retrouver cette photo d’Ali Khamenei prise en juin 2025. On y retrouve les mêmes éléments de décor, au centimètres près, à l’exception de son portrait. C’est donc probablement ce discours qui a été fourni à une IA pour générer le deepfake. La plupart des comptes qui ont partagé cette vidéo font la propagande du régime iranien. L’infox a ensuite été reprise volontairement ou par mégarde par plusieurs médias, notamment arabophones. Ce deepfake cumule ainsi plusieurs millions de vues. Un portrait de Mojtaba Khamenei dans le bureau de Donald Trump ? Cette fausse information n’est pas un cas isolé. D’autres vidéos mensongères circulent. La plus virale prétend, à tort, que Donald Trump aurait affiché un portrait de Mojtaba Khamenei dans son bureau de la Maison Blanche. Mais là encore, tout est faux. Quelqu’un a manipulé une vidéo diffusée par la présidence en mars 2025. Donald Trump avait affiché une copie de la Déclaration d'indépendance et non la tête du nouveau guide suprême iranien.
13/03/2026 • 03:07
Près d’une semaine après les premières frappes israélo-américaines sur l’Iran, la Guerre au Moyen-Orient se poursuit. Téhéran, toujours sous les bombes, poursuit sa riposte. Jusqu’ici, les Émirats arabes unis, l’Irak, le Qatar, le Koweït, l'Azerbaïdjan ou encore Bahreïn ont été ciblés par des missiles et des drones iraniens. Dans ce contexte, les images générées par intelligence artificielle inondent les réseaux sociaux, à tel point qu’il est difficile de distinguer le vrai du faux. Le symbole de cette guerre informationnelle en cours n’est autre que le porte-avions américain Abraham Lincoln. Pièce maîtresse du dispositif maritime de l’US Navy, le navire a été ciblé par des missiles iraniens en début de semaine. Plusieurs vidéos assez impressionnantes ont alors fait leur apparition sur les réseaux sociaux. La plus virale prétend montrer l’USS Lincoln en feu, en train de couler. En commentaires, certains parlent, à tort, d’une « démonstration de force historique de l’armée iranienne ». Sauf que ces images ne sont pas réelles. Cette vidéo, vue plus de 50 millions de fois, a été générée par intelligence artificielle. Plusieurs éléments visuels le prouvent, comme ces avions de chasse méconnaissables qui flottent étrangement à la surface. Le Commandement du département de la Défense des États-Unis a en réalité annoncé le 1er mars que « les missiles iraniens sont tombés loin de leur cible ». Le Centcom ajoute que « le Lincoln continue de lancer des avions en soutien aux bombardements » en cours en Iran. Propagande iranienne pro-régime Cette vidéo synthétique n’est pas un cas isolé, loin de là. Les contenus générés par IA autour de la riposte iranienne se comptent par centaine. Certains narratifs reviennent en boucle : des soldats israéliens ou américains en pleurs, des gratte-ciels comme le Burj Khalifa de Dubaï en flammes, des villes israéliennes rayées de la carte. Ces vidéos, ultra-réalistes, sont parfois difficiles à vérifier à l'oeil nu. Toujours très sensationnalistes, elles attirent l'œil et cumulent ainsi des centaines de millions de vues. La plupart des comptes qui diffusent ces vidéos artificielles font la propagande du régime iranien. Leurs publications visent à exalter la puissance militaire de Téhéran, et, au contraire, à dénigrer l’armée américaine et israélienne. À lire aussiRiposte iranienne: les images générées par intelligence artificielle sèment le doute Brouillard informationnel Ce bruit de fond sature l’espace numérique et génère un brouillard informationnel dans lequel on ne sait plus quelle vidéo est vraie ou fausse. Tout ça sème le doute, et invisibilise les images authentiques filmées sur le terrain par des témoins et des journalistes. Ce fléau a poussé certaines plateformes à réagir, à l’image de X, anciennement Twitter, dont les équipes ont annoncé une révision des règles de partage de revenus. Concrètement, un utilisateur qui publie une vidéo générée par intelligence artificielle sans le mentionner ne pourra plus monétiser son audience pendant 90 jours. Cela pourrait représenter un véritable manque à gagner pour les comptes spécialisés dans les fausses informations générées par IA. La liberté d’expression totale, défendue quoi qu’il en coûte par son propriétaire Elon Musk, n'aura visiblement pas résisté à cette vague de contenus anti-américains.
06/03/2026 • 03:21
Les États-Unis et l’Iran ont entamé jeudi 26 février un troisième round de négociations informelles à Genève au sujet du nucléaire iranien. Après avoir déployé un important dispositif militaire au Moyen-Orient, Washington agite toujours le spectre d’une intervention militaire. Dans ce contexte inflammable, nous avons identifié une opération de désinformation en cours sur le réseau social TikTok, à l’aide de vidéos générées par intelligence artificielle. Mercredi 24 février, une vidéo loufoque de dix secondes a attiré notre attention sur TikTok. On pense y voir un bombardier furtif américain, B2 Spirit, sortir d’un tunnel caché quelque part dans les montagnes iraniennes. Ces images, générées par intelligence artificielle, sont assez grossières. Les ailes de l’appareil traversent la montagne. En nous intéressant au compte à l’origine de ce clip, nous avons trouvé 41 vidéos, toutes générées par intelligence artificielle. Elles montrent soit du matériel militaire aux couleurs iraniennes, soit des femmes se présentant comme des pilotes. Ces contenus mensongers cumulent plus de 30 millions de vues. Écosystème de comptes En poursuivant nos recherches, nous avons identifié plusieurs centaines de vidéos de ce type, diffusées par des dizaines de comptes TikTok. Ces clips sont accompagnés de la même légende, à la lettre près. Nous avons ensuite sélectionné 25 de ces comptes pour analyser précisément leur activité. Résultat, ces profils ont été créés entre janvier et février 2026. L’analyse de la date précise de leur première publication montre que cette opération a débuté autour du 19 janvier, avant de s’intensifier courant février. Ces deux indicateurs traduisent une action coordonnée. L’audience cumulée de ces 25 comptes dépasse les 120 millions de vues. Exalter la puissance de l’armée iranienne L’objectif derrière la diffusion massive de ces vidéos générées par intelligence artificielle semble d’exalter la puissance de l’armée iranienne aux yeux d’un public jeune et international. Même si le caractère artificiel de certaines vidéos saute aux yeux, d’autres sont ultra-réalistes. Dans un contexte de vives tensions entre les États-Unis et l’Iran, il s’agit là d’une forme de propagande et de course aux clics. Manipulation de hashtags ? Si on ne sait pas concrètement qui est derrière cette opération de désinformation, plusieurs éléments sont importants à prendre en compte. Certains de ces profils ont d'abord déjà diffusé des contenus en faveur du régime en place à Téhéran. Certains arborent même le visage du guide suprême Ali Khamenei en photo de profil. Autre élément très intéressant, ce sont les hashtags accolés à toutes ces vidéos. On retrouve toujours #FreeIran #IranProtest, #WomanLifeFreedom ou encore #StandWithIran. Ces mots-clés sont traditionnellement associés au mouvement de contestation, très violemment réprimé par le régime iranien. Comment expliquer que des comptes en apparence pro-régime utilisent des hashtags associés, au contraire, aux opposants ? Cela pourrait être simplement pour surfer sur la popularité de ces hashtags et faire du clic. Mais cela pourrait aussi être destiné à invisibiliser les vraies images des manifestations partout dans le pays. Aujourd’hui, lorsque l'on cherche ces hashtags sur TikTok, ces vidéos militaires générées par IA inondent les résultats. Le faux finit donc par prendre le dessus sur la réalité. Cela pourrait être un moyen, parmi d'autres, de cacher ce qu’il se passe vraiment en Iran.
27/02/2026 • 03:20
Emmanuel Macron s’est rendu en Inde cette semaine pour renforcer le partenariat stratégique entre les deux pays. Les discussions entre Paris et New Delhi ont porté sur l'intelligence artificielle, mais aussi sur la vente possible de plus de cent avions de chasse français Rafale. Un dossier hautement sensible, ciblé par une série de deepfake détournant le visage du président français et du Premier ministre indien, Narendra Modi. Tout commence mardi 17 janvier avec la diffusion sur X (ex-Twitter) d’une vidéo de quarante trois secondes. On voit Emmanuel Macron, drapeaux français en arrière-plan, en pleine déclaration, devant un pupitre décoré avec des fleurs. On pense alors l’entendre parler en anglais. Il semble affirmer que la France ne « pourra pas devenir un partenaire de l'Inde dans le domaine de la défense ». « Nous avons déjà perdu un milliard de dollars sur le marché Rafale en raison de l'inefficacité de l'armée de l'air indienne. Nous ne pouvons pas faire partie d'une organisation défaillante qui ternirait davantage notre réputation ». Ce narratif mensonger fait référence à l’opération militaire Sindoor menée par l’Inde au Pakistan en mai 2025 et où New Delhi aurait perdu au moins un avion Rafale. Un deepfake anglophone En réalité, Emmanuel Macron n’a jamais prononcé ces mots. C’est un deepfake, un hypertrucage généré par intelligence artificielle. Ce type d’outil permet de faire dire n’importe quoi à n’importe qui en quelques clics. La première étape de vérification consiste à identifier l’origine précise de cet extrait. Pour ça, nous avons procédé à plusieurs recherches par image inversée (voir ici comment faire). Cela nous a permis de retrouver la déclaration d'Emmanuel Macron et de Narendra Modi à Bombay, le 17 février 2026. Si on y retrouve bien le même décor, les mêmes gestes, les propos eux, sont totalement différents. L'extrait qui a été manipulé débute à 27'53. D’abord, Emmanuel Macron s’exprime en français et non en anglais. De plus, durant les quinze minutes de son allocution, le président loue un partenariat sans « limites » et en pleine « accélération » avec l’Inde. Il ne parle pas des Rafales, ni ne critique l’armée de l’air indienne. Comptes pro-pakistanais et pro-chinois À l’origine de cette fausse information, on retrouve un compte X anonyme, qui se présente, à tort, comme un lanceur d’alerte. Dans les faits, il publie quotidiennement des deepfake et des infox destinées à dénigrer l’armée indienne et, au contraire, à vanter la puissance du Pakistan. Il a notamment partagé un hypertrucage de Narendra Modi au sujet, une nouvelle fois, des avions français Rafale. Ces infox s’inscrivent dans une vaste opération de désinformation. En effet, depuis la série de bombardements menés par l’armée indienne contre le Pakistan en mai 2025, le Rafale est victime d’une intense campagne de dénigrement dans la région. Derrière tout ça, on retrouve un écosystème de comptes et de médias chinois et pakistanais. Leurs objectifs consistent à ternir la réputation de l’avion fabriquée par Dassault, à promouvoir le matériel de fabrication chinoise et à affaiblir, par la même occasion, le partenariat franco-indien.
20/02/2026 • 03:15
Alors que les attentats et les enlèvements se multiplient au Nigéria, les États-Unis renforcent leur lutte antiterroriste dans la région. Dans ce contexte, une infox est apparue sur les réseaux. Selon une vidéo trompeuse, l’organisation terroriste État islamique en Afrique de l’Ouest s’adresserait au président Donald Trump, en le menaçant d’utiliser des armes récupérées en Ukraine pour frapper les intérêts occidentaux. Un faux message qui a soulevé des interrogations sur la toile. Le message dure 52 secondes. Son auteur a tenté de faire croire à une publication officielle du groupe ISWAP. Sur cette vidéo, on distingue cinq hommes en armes. Au premier plan, un combattant le visage enturbanné s’exprime en anglais. Il menace directement Donald Trump, et conseille aux Américains de « ne pas interférer dans le conflit interne au Nigéria ». La séquence est précédée d’une introduction où apparait un logo sur fond noir identique à celui que l’on retrouve sur certaines publications de l’État islamique. Ce montage est destiné à donner du crédit à cette infox. Pour analyser la vidéo, nous avons tout d’abord utilisé un outil de détection d’IA (Hive) afin de savoir si cette séquence a été générée artificiellement. Résultat : selon le logiciel, les images proviennent d’un véritable enregistrement vidéo, peut-être une mise en scène avec des acteurs, mais le son a été fabriqué de toutes pièces. Attention, on sait que les outils employés par la détection des images créées par IA ne sont pas fiables à 100 %. Nous avons donc recherché parallèlement des invraisemblances ou des aberrations graphiques pour nous permettre d’en savoir plus. Visuellement, deux éléments ont attiré notre attention. Plusieurs personnages ont le regard fixe, sans aucun battement de cils durant la totalité de la vidéo. Par ailleurs, le missile portable posé sur l’épaule de l'un des prétendus combattants de l’État islamique, situé à l’arrière-plan, est incomplet. Il manque le poste de tir, c’est-à-dire la poignée et le système de visé. Tel qu’il apparait à l’image, son utilisation est impossible. Pas de missiles Javelin ukrainiens au Nigeria Le tube de missile montré à l’écran, semble identique à ceux des FGM-148 Javelin livrés par les États-Unis à l’Ukraine. C’est un élément central dans cet infox. Pour ses auteurs, c’est une sorte de preuve par l’image de la dispersion de ces armes. Un narratif récurrent. Sauf qu’aucun de ces missiles anti-char trés modernes, n’a été retrouvé au Nigéria. Cependant, on estime que Washington a fourni plus de dix-mille engins de ce type à l’armée Ukrainienne. Sur la piste son, une voix synthétique, enfonce le clou, en anglais, en affirmant que « le groupe islamique a récupéré des missiles Javelin en Ukraine, et qu’ils vont être utilisés contre les infidèles ». En quelques jours, la vidéo a été vue plusieurs millions de fois rien que sur X. Les commentaires fusent. Un utilisateur s’interroge : « Encore combien de missiles perdus, dans la nature ? (...) C’est effrayant, la question est à présent de savoir comment ces missiles sont arrivé là (...) Il est largement temps de rendre des comptes », écrit un autre L'État islamique n’a pas produit cette vidéo Les spécialistes des mouvements djihadistes que nous avons consulté, n’ont pas cru une seconde que cette vidéo provenait de l’État islamique. L’un d’entre eux note sur X : « L’utilisation de deux traductions simultanées en arabe et en anglais est contraire aux pratiques médiatiques de l’organisation terroriste. L’utilisation d’un bandeau blanc pour la traduction ne correspondant pas aux vidéos déjà vérifiées. Enfin, le logo de l'EI est absent dans le coin supérieur droit de l'image ». Un message qui reprend les codes de la désinformation russe À l’écran, la mise en scène est très proches de celle de trois précédentes vidéos, dont nous avions déja parlé ici : à savoir de prétendues menaces jihadistes contre la France en Juillet 2024 juste avant les JO, mais aussi janvier 2025, et septembre 2025. La fausse nouvelle apparue à partir du 30 janvier dernier, a d’abord circulé à bas bruit, avant d’être amplifiée par une poignée de comptes pro-Trump, complotistes ou d’extrême droite principalement sur X, le réseau d’Elon Musk. Selon plusieurs contributeurs, cette infox présente des caractéristiques communes avec l’opéraiton de désinformation russe baptisée STORM 15-16. Cette campagne comporte différents objectifs : décrédibiliser l’Ukraine dénigrer les politiques occidentales, tout en jouant sur les peurs du public autour de sujets comme le terrorisme ou l’immigration. Risque réel de dissémination des armes utilisées en Ukraine Si la vidéo est le fruit d’une mise en scène ou même une création par l’IA, la dispersion des armes employées sur le champ de bataille est une préoccupation des autorités. Ce n’est pas nouveau. Ce fut le cas, en Europe, après les guerres, dans les Balkans dans les années 90, ou encore en Afrique, au Sahel après la guerre civile libyenne qui débuta en 2011. Dans son rapport 2025, Europol, l’agence européenne de lutte contre la grande criminalité internationale et le terrorisme assure qu’il n’y a pas eu pour l’heure de saisies en grande quantité d’armes de contrebande en provenance d’Ukraine mais précise que « des inquiétudes persistent quant à la possibilité de voir ce pays devenir une source importante d’approvisoonement illicite à court et moyen terme ».
13/02/2026 • 03:42
Au Cameroun, une vidéo mensongère sème le doute sur Tik Tok. Ce clip prétend montrer, à tort, l’arrivée de plusieurs missiles nucléaires de fabrication russe dans le pays. En réalité, il s’agit de cuves de fermentation destinées à une usine de production de bière, à Bafoussam. Si ces images détournées prêtent à sourire, elles illustrent en réalité un mode opératoire récurrent sur les réseaux sociaux. La vidéo est assez impressionnante. Durant 37 secondes, on voit deux camions gros porteurs transporter deux énormes machines de forme cylindrique. Ce convoi exceptionnel circule sur une route bitumée, sous le regard surpris de quelques passants. La légende parle, à tort, de l’arrivée au Cameroun d’au moins deux « Satan », des missiles balistiques intercontinentaux de fabrication russe. Ces engins de 35 mètres de long sont capables de transporter des ogives nucléaires. Dans les faits, ces images n’ont rien à voir avec des missiles nucléaires. Plusieurs éléments permettent rapidement de douter de cette version. D’abord, ni les Russes ni les Camerounais n'ont communiqué sur une telle livraison. Ce convoi exceptionnel n’est d’ailleurs pas escorté par des véhicules militaires, ce qui est la norme quand on transporte du matériel aussi sensible. Enfin, un missile nucléaire ne serait certainement pas protégé par une simple bâche en plastique et quelques morceaux de bois, comme c’est le cas ici. Des cuves de fermentation inoffensives Pour savoir ce que montre réellement cette vidéo, nous nous sommes intéressés à cette inscription visible sur la partie avant de l’une de ces grosses machines. Il y est écrit SABC. Il s‘agit du nom de la Société Anonyme des Boissons du Cameroun. Nous avons contacté la société qui produit notamment de la bière et des spiritueux. « Les équipements visibles dans la vidéo sont des TOD (Tank Out Door) destinées à notre usine de Bafoussam. Il s’agit de trois cuves de fermentation utilisées dans le cadre normal de notre processus de production », précise l’entreprise qui nous a envoyé plusieurs photos de ces cuves sur le site de Bafoussam. Ces nouveaux tankers sont arrivés à destination le vendredi 30 janvier 2026. Ils permettent de faire de la bière mais certainement pas de fabriquer des missiles. Un mode opératoire en vogue Ce n’est pas la première fois qu’une machine industrielle est présentée, à tort, comme une arme de destruction massive. En novembre 2024, nous avions déjà épinglé une infox similaire à propos d’une prétendue « nouvelle bombe nucléaire russe en cours de fabrication ». En réalité, il s’agissait d’une gigantesque colonne de régénération qui sert au traitement des produits issus du raffinage. À chaque fois, on retrouve une énorme machine de forme cylindrique accompagnée d'une légende racoleuse à coups de bombe nucléaire ou de missiles supersoniques. À en croire les indicateurs de viralité, cette recette fonctionne. Cette fausse information au Cameroun approche par exemple les 2 millions de vues, rien que sur Tik Tok. Il faut dire que le cocktail images impressionnantes et narratif spectaculaire plaît aux algorithmes qui mettent en avant la vidéo, même si celle-ci est mensongère. En règle générale, il vaut mieux se méfier de ces comptes qui affirment repérer des armes nucléaires circulant dans la nature.
06/02/2026 • 03:18
En Syrie, les forces gouvernementales mènent depuis début janvier une vaste offensive dans le nord-est du pays. Le président Ahmed al-Charaa cherche à reprendre le contrôle des territoires dirigés par l’Administration autonome du nord et de l’est de la Syrie. Alors qu’un cessez-le-feu entre Damas et les Forces démocratiques syriennes (FDS), à majorité kurde, a été prolongé, la désinformation gagne du terrain. La dernière infox en date cible les FDS et la Croix-Rouge. Tout repose sur une vidéo mensongère diffusée sur les réseaux sociaux en début de semaine. Durant quarante-neuf secondes, on y voit des dizaines de caisses métalliques, remplies d’argent liquide, entassées dans un hangar. Ces boîtes portent le logo du Comité international de la Croix-Rouge (CICR). Les commentaires affirment, à tort, que « les services de renseignement turc et syrien viendraient ainsi de saisir une importante cargaison d’argent liquide en provenance des Émirats arabes unis, à destination des Forces démocratiques syriennes ». En réalité, ces images n’ont rien à voir avec la situation en cours en Syrie. Grâce à une recherche par image inversée, on sait que cette vidéo est ancienne. Elle circule en ligne depuis maintenant plus de huit ans. Nous nous sommes également intéressés à ce texte en arabe visible sur l’une des caisses métalliques. Il y est écrit « Grande Jamahiriya arabe libyenne populaire et socialiste - Tripoli - 15 juillet 2011 ». Il s’agit du nom utilisé par l'État libyen sous le régime de Mouammar Kadhafi. Le CICR dément Cette vidéo est similaire à deux photos publiées dans un rapport de l’ONU en juin 2017. Il y est question de la transition politique en Libye, et de potentiels transferts d'argent dissimulés en Afrique de l’Ouest après la chute du dictateur. On y apprend que ces caisses étaient entreposées dans un hangar à Accra, au Ghana. Sur ces clichés, on retrouve le même sol, les mêmes caisses métalliques, et surtout la même inscription en arabe, que sur cette vidéo. Cette vidéo mensongère avait poussé le Comité international de la Croix-Rouge à réagir. Début 2018, le CICR déclarait, dans un communiqué, qu'il n’avait « absolument rien à voir avec le stockage ou le transport d'argent liquide mentionné dans cette vidéo ». L’organisme dénonçait une « utilisation abusive de son logo » et « une vidéo alimentant de fausses théories du complot ». Une infox à la mode Depuis son apparition en 2018, ce clip refait régulièrement surface dans différents contextes. De l’argent envoyé par l’Union européenne à des combattants ukrainiens, des millions de dollars détournés au Brésil, des billets envoyés par les Américains à Haïti pour encourager la corruption : les narratifs mensongers collés à cette vidéo se comptent par dizaines. Avec très peu d’éléments de contexte, ces images sont faciles à détourner, au gré de l’actualité. Une chose est sûre, elle ne documente pas un transfert d’argent des Émirats arabes unis, à destination des Forces démocratiques syriennes.
30/01/2026 • 02:42
Alors que les frappes russes sur les infrastructures énergétiques ukrainiennes se multiplient, les attaques informationnelles se poursuivent aussi sur les réseaux sociaux. Une énième opération de désinformation pro-russe ciblent actuellement l’Ukraine et la France. Cette fausse information, assez complexe, repose sur une affaire de corruption, inventée de toutes pièces. Tout commence avec l’apparition d’une vidéo assez étrange sur les réseaux sociaux le 18 janvier. Il y est question d’un supposé « scandale » autour du projet d’achat de chasseurs français Rafale par l’Ukraine. On y entend une voix robotique, avec un accent très prononcé, affirmer, à tort, que des hauts fonctionnaires et des militaires français et ukrainiens, auraient ainsi « détourné 2 milliards d’euros ». Le major général des armées français et des proches du président Volodymyr Zelensky sont notamment cités. L’infox cumule près de quatre millions de vues, rien que sur X (ex-Twitter). Typosquatting Cette opération de désinformation s’appuie sur une enquête prétendument publiée par le Bureau national anticorruption d'Ukraine (NABU). La vidéo renvoie directement vers une page internet qui se présente comme le site officiel de cet organisme ukrainien. On y retrouve leur logo, leur charte graphique ainsi que des liens vers leurs réseaux sociaux. Dans les faits, cette page internet n’est pas authentique. Si visuellement, tout porte à croire qu’il s’agit du site officiel, c’est en réalité un clone. Le nom de domaine n'est pas correct. L’adresse du vrai site internet commence par nabu.gov.ua. Or, cette copie utilise nabu-gov.com. Ce site miroir a été enregistré le 15 janvier 2026. Il s’agit donc d'une page jetable, dédiée uniquement à cette opération de désinformation. Ce mode opératoire s’appelle le typosquatting. Cette technique consiste à enregistrer des noms de domaine, presque identiques à ceux d’institutions ou de médias reconnus pour tromper et désinformer. Le Bureau national anticorruption d'Ukraine dément Vérification faite, cette prétendue enquête n’existe pas. Ces accusations sont introuvables sur le site officiel du Bureau national anticorruption d'Ukraine. L’organisme a d’ailleurs rapidement démenti cette fausse information, dénonçant une usurpation d’identité. Ce scandale de corruption a été totalement inventé afin de nuire à l’image de Kiev et de Paris, l’un de ses principaux alliés. À l’origine de cette infox, on retrouve un écosystème d’acteurs pro-russe participant régulièrement à ce type d’opération de désinformation. Ces comptes, aux centaines de milliers d’abonnés sur X ou Telegram, servent à viraliser et à blanchir des narratifs mensongers, en français et dans d’autres langues. Grâce à ce réseau, ces infox parviennent souvent à atteindre des millions de vues. Le mode opératoire informationnel Storm-1516 Cette infox s’inscrit dans une vaste campagne de désinformation pro-russe baptisée Storm-1516. Ce n’est pas la première fois qu’on en parle dans cette chronique. Ce mode opératoire informationnel (MOI) prend différentes formes, des faux sites internet, au mise en scène en passant par les hypertrucages générés par intelligence artificielle. À lire aussiLa France ciblée par une nouvelle opération de désinformation russe Ces attaques informationnelles visent à dénigrer l’Ukraine, critiquer les politiques occidentales, mais aussi troubler le débat public en désinformant sur des sujets d’actualité.
23/01/2026 • 03:14
Quand l’intelligence artificielle s’empare de la Coupe d’Afrique des Nations. Alors que la finale opposera le Maroc et le Sénégal ce dimanche 18 janvier, à Rabat, la désinformation autour de cette CAN 2025 ne faiblit pas sur les réseaux sociaux. Des centaines de vidéos artificielles ciblent notamment l’arbitrage, et le Maroc, pays hôte de cette 25e édition. Depuis le lancement de cette CAN 2025, les accusations d’un arbitrage maison, en faveur des Lions de l’Atlas, sont alimentées par une vague de contenus mensongers sur les réseaux sociaux. Parmi les exemples les plus marquants, on retrouve une vidéo à propos du 8e de finale remporté 1-0 par le Maroc contre la Tanzanie. Durant dix secondes, on pense y voir, à tort, l'arbitre de la rencontre présenter ses excuses aux supporters tanzaniens. Vérification faite, cette vidéo n’est pas réelle. Ces images, vues plus de 5 millions de fois, ont été entièrement générées par intelligence artificielle. Plusieurs éléments le prouvent, comme cet homme qui ne ressemble pas du tout à Boubou Traoré, l’arbitre malien au sifflet de ce match. On note aussi l’absence de bleu sur les drapeaux tanzaniens, un texte illisible sur le logo de la Fifa, ou encore un public anormalement immobile. Les joueurs pris pour cible Ces infox générées par IA détournent également l’image des joueurs, à commencer par la sélection algérienne éliminée en quart de finale contre le Nigeria sur le score de deux à zéro. Une vidéo prétend montrer un Fennec critiquer violemment l’arbitrage et le Maroc en conférence de presse. Mais là encore, tout a été généré par intelligence artificielle. Le maillot algérien ne correspond pas à la tenue officielle. Le logo de la Confédération africaine de football n’est pas correct. Une économie du faux Ce type de vidéos artificielles se comptent par centaine sur les réseaux sociaux. En effet, nous avons identifié plusieurs comptes TikTok qui diffusent quotidiennement ce genre d’infox. Des interviews d’après-match qui dérapent, des arbitres en pleurs, des coachs giflant leurs joueurs dans les vestiaires : les mises en scène touchent toutes les sélections et tous les acteurs, sur ou en dehors du terrain. Au total, ces vidéos cumulent plus de 50 millions de vues, rien que sur TikTok. Si certaines prêtent à sourire, d’autres visent délibérément à désinformer et à attiser les tensions. Les commentaires montrent que certains supporters se font avoir. Comment détecter l’IA Pour détecter l’usage de l’intelligence artificielle, il faut être attentif aux détails visuels. Les logos, les inscriptions textuelles comportent régulièrement des défauts. Les visages des joueurs ne sont pas ressemblants. Le son aussi est souvent trop lisse, trop parfait. De plus, il ne faut pas oublier l’indicateur temporel. Toutes ces fausses vidéos durent de 5 à 15 secondes. C’est un élément qui peut trahir l’utilisation d’un outil d’intelligence artificielle.
16/01/2026 • 02:59
Début janvier, le président américain Donald Trump a de nouveau tenu des propos hostiles envers les autorités danoises qui, selon lui, ne sont pas capables de défendre le Groenland face aux appétits chinois et russes en Arctique. Dans le même temps, sur les réseaux sociaux, des propos outranciers et des images détournées circulent dans le but de décrédibiliser l’armée danoise chargée d’assurer la sécurité de ce territoire. Le président américain parle d’une « priorité de sécurité nationale pour les États-Unis » afin de justifier son intention de faire main basse sur le Groenland, ce territoire situé non loin du pôle Nord, entre l’Europe et les États-Unis. Selon Donald Trump, « le Danemark ne fait rien pour la sécurité du Groenland (...) Ils ont seulement ajouté un traineau à chiens », a-t-il affirmé le 4 janvier devant quelques journalistes présents à bord de l’avion présidentiel Air Force One. Visiblement, cette histoire amuse beaucoup le président américain et pourtant, c’est une affaire très sérieuse. Après vérification, ces traineaux appartiennent à une unité spéciale danoise, baptisée patrouille Sirius et rattachée au commandement danois pour l'Arctique. Depuis 2012, ce commandement interarmées assure des missions militaires, des missions de garde-côtes et des interventions en cas de catastrophe, le tout au sein d'une seule organisation. L'unité Sirius est capable de mener des missions de surveillance à longue distance dans ce territoire glacial. Jusqu’alors, la patrouille Sirius disposait de six équipages avec deux hommes et de 11 à 15 chiens. De l’avis des experts, il s'agit du moyen le plus fiable pour opérer en autonomie dans une région du monde où les conditions météo sont extrêmement dures pendant l’hiver. Préoccupations stratégiques Une fois de plus, Donald Trump exagère beaucoup quand il dit « que le Danemark ne fait rien pour la sécurité du Groenland ». Ainsi, la Première ministre danoise Mette Frederiksen a immédiatement dénoncé ces propos en rappelant que Copenhague avait alloué l’an dernier 1,2 milliard d’euros à la sécurité de la région et pas seulement en achetant des traineaux. Mais aussi en se dotant, dans les années à venir, de drones, de navires spécialisés, de radars et d’avions de patrouille maritime tout en passant commande également de 16 chasseurs supplémentaires : des F-35, fabriqués aux États-Unis. Nuire à l’image de l’armée danoise L'armée danoise a été visée par des infox, ou des propos déplacés provenant le plus souvent des sphères pro-russe ou MAGA (Make America Great Again), proches du président Donald Trump. Comme ce compte qui diffuse une vidéo où l’on voit un soldat chuter en tentant de descendre d’un véhicule de transport de troupe. Commentaire moqueur : « Quand l’armée danoise débarque pour stopper l’invasion américaine du Groenland ». Vérification faite, l’image a été détournée. Elle montre des soldats suisses et non des forces spéciales danoises. Cette vidéo sortie de son contexte a été vue plus de deux millions de fois rien que sur ce compte. D’autres vidéos cherchent à tourner au ridicule l’équipement de l’armée danoise, ou laissent supposer que les soldats danois ne seraient pas assez virils. À lire aussiPeut-on contrer les volontés expansionnistes de Donald Trump ? Donald Trump a la mémoire courte Beaucoup d’utilisateurs rappellent que l’armée danoise n’a pas failli à ses engagements, soulignant qu'elle a perdu 44 soldats dans la mission de l’Otan en Afghanistan, aux côtés des États-Unis, dans les années 2010. Durant cette crise politico-diplomatique, les responsables danois ont utilisé les réseaux sociaux (dont le réseau X d'Elon Musk) avec beaucoup d'agilité, afin d'essayer de faire valoir leur point de vue. Sur son compte X, l’ambassadeur du Danemark à Washington conclut : « Le Danemark prend la sécurité dans l’Arctique très au sérieux (...) les États-Unis ont la possibilité d’établir des bases militaires supplémentaires au Groenland en vertu d’un traité datant de 1951. »
09/01/2026 • 03:41
En pleine négociation avec les États-Unis, la Russie accuse l’Ukraine d’avoir attaqué une résidence appartenant à Vladimir Poutine. Sans preuves tangibles, l’armée russe évoque un raid de 91 drones. Kiev et ses alliés dénoncent des mensonges destinés à saper les pourparlers diplomatiques en cours. Dans ce contexte, une vidéo générée par intelligence artificielle sème le doute sur les réseaux sociaux. La vidéo a dépassé les 10 millions de vues en seulement vingt-quatre heures. Durant quinze secondes, on y voit deux drones tirer un projectile sur une résidence luxueuse, située en pleine forêt. La toiture prend feu, pendant qu’un véhicule stationné sur le parvis essaye de prendre la fuite. Des éléments visuels comme l’heure, la date ou la mention « REC », poussent à croire, à tort, que ces images auraient été filmées par une caméra de surveillance. Les comptes qui diffusent ce clip parlent d’une « preuve » qui viendrait confirmer le narratif diffusé par le Kremlin. Mais vérification faite, ces images ne sont pas réelles. Cette vidéo a été entièrement générée par intelligence artificielle. Plusieurs incohérences visuelles le prouvent, à l’image de cette voiture qui roule à travers une fontaine et ne fait aucune trace sur la neige. On remarque, de plus, une explosion qui ne provoque aucun dégât, ou encore les secondes de l’horloge qui ne défilent pas dans le bon ordre. Désinformer pour combler le vide D’autres éléments prouvent l’utilisation d’un outil d’intelligence artificielle. Il y a la bande son, anormalement trop parfaite. On se croirait dans un film d’action alors que les micros des caméras de surveillance sont souvent de mauvaise qualité voire inexistants. Enfin, il ne faut pas oublier l’indicateur temporel. Cette vidéo dure précisément quinze secondes. C’est la durée standard permis par certains outils d’IA comme Sora 2 de la start-up américaine Open AI. À lire aussiSora 2: le générateur de vidéos par IA qui a tout pour devenir une usine à infox Derrière cette infox, on retrouve différents comptes influents, habitués à diffuser de la désinformation. Certains sont déjà identifiés comme des vecteurs importants de la propagande du Kremlin. L’auteur de cette infox a profité de la rareté des images liées à cette attaque présumée d’une résidence de Vladimir Poutine, pour viraliser son infox. Une stratégie payante, puisque cette vidéo artificielle cumule plus de 11 millions de vues. Mais contrairement à ce que certains affirment, le Kremlin n’a pas diffusé ce clip sur ses canaux de communication officiels. Aucune preuve tangible À ce stade, Moscou n’a apporté aucune preuve tangible. La vidéo d’un débris de drone diffusé par les autorités russes ne permet en aucun cas de confirmer l’existence de cette supposée attaque. Ces images ont été filmées en gros plan, de nuit, en plein milieu d’une forêt, rendant tout travail de vérification et de géolocalisation impossible. Les experts pointent l’absence d’images amateurs alors que la Russie affirme que 91 drones auraient survolé la région concernée. À ce stade, aucune preuve factuelle ne vient corroborer la version du Kremlin, démentie par Kiev et ses alliés. À lire aussiGuerre en Ukraine: quand la propagande pro-russe recourt aux vidéos artificielles
02/01/2026 • 02:56
En guise de mot de l’année 2025, le dictionnaire américain Merriam-Webster a choisi « slop ». Cette expression définit les contenus numériques de mauvaise qualité produits en masse par l’intelligence artificielle. Cette bouillie de photos absurdes, de sons loufoques, ou de vidéos plus ou moins réalistes, inondent les réseaux sociaux. Ces contenus « slop » polluent de plus en plus l’espace numérique, à tel point que le phénomène inquiète. Un chat avec la tête du président américain Donald Trump, une baleine qui mange un ours polaire, des bébés qui parlent comme des adultes. Si vous êtes un utilisateur de TikTok, Facebook, X ou Instagram, vous avez forcément déjà été confronté à du « slop ». Ces contenus, plus ou moins réalistes, sont très populaires sur les réseaux sociaux. Certains cumulent des dizaines voire des centaines de millions de vues. Grâce à leur caractère surréaliste, choquant ou humoristique, ces productions jouent sur nos émotions et attirent l’attention des utilisateurs. Les algorithmes l’ont bien compris, et amplifient donc artificiellement ce type de contenu. Cela aboutit à une saturation de l’espace informationnel sur les réseaux sociaux. Si certaines plateformes proposent des filtres pour échapper au « slop », la plupart surfent sur le phénomène. L’économie du « slop » Derrière ces contenus « slop », on retrouve différents acteurs qui ont saisi l’opportunité pour gagner de la visibilité et monétiser leur audience. Les derniers outils d’IA leur facilitent la tâche puisqu'il n’a jamais été aussi simple de créer ce type de contenus. Une véritable économie s’est donc mise en place autour de ce phénomène. Une vidéo vue près de 20 millions de fois peut vous rapporter, selon la plateforme, plus de 1 000 dollars. En Asie, plusieurs « fermes à slop » ont ainsi vu le jour ces dernières années. Quand le faux prend le dessus Si ça ne fait pas de mal de rigoler devant une vidéo loufoque, certains contenus artificiels posent problème, car ils prennent le dessus sur la réalité. Dans leur guerre au clic, certains producteurs de « slop » adaptent leur contenu à l'actualité et tombent dans la désinformation. C’est particulièrement le cas lors de catastrophes naturelles. Récemment, lors des inondations mortelles au Maroc, des dizaines de vidéos artificielles censées documenter la catastrophe ont circulé sur les réseaux sociaux. Pour le buzz, certains n’hésitent pas à générer des faux témoignages de victimes. Ces infox invisibilisent les vraies images, masquent les messages d’alerte des secours et bouleversent notre rapport à la réalité. Vers une auto-intoxication des IA ? Ces contenus artificiels omniprésents sur les réseaux sociaux pourraient-ils intoxiquer les intelligences artificielles qui les produisent ? C’est le risque pointé par plusieurs experts du numérique. Puisque les intelligences artificielles IA se nourrissent de ce qui circule en ligne, elles pourraient bel et bien finir par s'auto-intoxiquer. À cela s’ajoute aussi la prolifération des faux comptes se faisant passer pour des humains. Reste à savoir si les publics vont finir par se lasser de cette nouvelle esthétique, plus que jamais à la mode sur les réseaux sociaux.
26/12/2025 • 03:02
Réunis à Bruxelles, les dirigeants européens ont trouvé ce vendredi 19 décembre un accord pour financer l’effort de guerre de l’Ukraine, à hauteur de 90 milliards d’euros. Dans ce contexte, plusieurs fausses informations ciblent directement l’aide militaire à Kiev. La dernière infox en date, diffusée sur TikTok, s’attaque à la France et à ses avions de chasse. À en croire une série de vidéos mensongères diffusées sur les réseaux sociaux, la Russie aurait récemment « abattu plusieurs aéronefs français remis à Kiev ». La rumeur parle « d’appareils stratégiques livrés en cachette par Emmanuel Macron à Volodymyr Zelensky ». Certains évoquent, sans preuves, la destruction de Rafale, le chasseur polyvalent du constructeur français Dassault. Un narratif repris dans une dizaine de vidéos diffusées sur TikTok et vu plus de deux millions de fois. En réalité, tout est faux, de la livraison secrète de ces appareils à leur destruction au combat. Dans les faits, aucun avion de chasse français n’a été abattu par la Russie en Ukraine. L’armée russe n’a d’ailleurs jamais communiqué sur un tel événement. Aujourd’hui, les seuls avions de chasse fournis à l’Ukraine par la France sont des Mirage 2000. Selon Kiev, ces appareils sont majoritairement engagés dans des missions de défense aérienne pour contrer les vagues de drones et de missiles russes. Quant aux Rafale, la livraison d’appareils à l’Ukraine n’en est qu’au stade des tractations. Un réseau de désinformation Les images que l’on voit dans la vidéo sont toutes sorties de leur contexte. Les différentes séquences sont sans rapport avec la France et ses avions de chasse. L’une montre un char de combat américain Abrams en plein exercice. Une autre documente une patrouille de F-16 polonais en plein vol. À l’origine de cette infox, nous avons identifié un écosystème de comptes TikTok francophones, habitués à diffuser de la désinformation. Au gré de l’actualité internationale, ils diffusent chaque jour des vidéos sensationnalistes avec un titre et des images chocs, le tout accompagné d’une musique angoissante et d’une voix générée par intelligence artificielle. Ces comptes font tout pour se faire passer pour des médias. Leur nom, Info monde, Info Actuality, Info Paris, et leur photo de profil sont volontairement trompeurs. Ce verni cache en réalité un vaste réseau de désinformation. Désinformation et propagande Ces vidéos servent à saturer les réseaux sociaux de contenus trompeurs, souvent à la gloire de la Russie et de son armée. Les comptes à la manœuvre comptabilisent des millions de vues et des centaines de milliers de likes. Cette audience, conséquente, permet de viraliser la propagande du Kremlin et de monétiser des fausses informations produites en quantité industrielle. À lire aussiGuerre en Ukraine: une vague de faux journaux TV alimente la désinformation
19/12/2025 • 02:55
Alors que la République démocratique du Congo et le Rwanda ont signé un accord de paix la semaine dernière à Washington, les attaques ont repris dans l’est de la RDC. Le groupe armé AFC/M23, soutenu par Kigali, a investi la ville d’Uvira. Cette intensification des combats s’accompagne d’un regain de désinformation sur les réseaux sociaux, à l’image d’un « deepfake » viral du capitaine burkinabè Ibrahim Traoré. À en croire une vidéo mensongère devenue virale sur les réseaux sociaux ces dernières heures, Ibrahim Traoré aurait longuement critiqué le président rwandais Paul Kagame. Durant plus de cinq minutes, on y voit le chef de l’État burkinabè, béret rouge sur la tête, parler devant un micro. On pense alors l’entendre dire : « Paul Kagame. Aujourd'hui, je parle au nom des millions d'Africains qui n'acceptent plus le sang versé et les mensonges répétés. Aujourd'hui, je ne parle pas seulement à un chef d'État, je parle à celui qui croit pouvoir manipuler les peuples et cacher la vérité derrière des sourires diplomatiques. Goma, Goma, une ville meurtrie, une région martyrisée par des guerres qui ne sont pas neutres. Et pourtant, vous, Kagamé, vous avez choisi d'être partie prenante de cette tragédie ». Les comptes qui partagent ce clip affirment qu’Ibrahim Traoré serait « très en colère contre son homologue rwandais pour son rôle dans la guerre à l’est de la RDC ». Détecter un deepfake En réalité, ce discours a été inventé de toutes pièces. Ibrahim Traoré n’a jamais prononcé ces mots. Nous avons consulté l’ensemble des canaux de communications officiels du pouvoir burkinabè et cette déclaration est introuvable. Il s’agit donc d’un deepfake, un hypertrucage généré par intelligence artificielle. L’image et le son ont été manipulés. Ce type d’outil permet de faire dire n’importe quoi à n’importe qui. En observant attentivement la vidéo, on remarque plusieurs incohérences visuelles. D’abord, la synchronisation entre ses lèvres et les mots qu’il prononce n’est pas parfaite. Il y a parfois un décalage de quelques secondes. De plus, on retrouve ce même défaut au niveau du mouvement de ses paupières. Enfin, il y a cet homme visible derrière Ibrahim Traoré qui ne bouge pas d’un pouce durant toute la déclaration. L’élément le plus parlant reste l’une des mains du capitaine burkinabè qui ne compte pas cinq mais six doigts. Ces anomalies sont difficiles à distinguer sur l’écran d’un smartphone. À lire aussiComment RFI démasque les «deepfake» ? Hypertrucages en série Ce n’est pas la première fois qu’un deepfake d’Ibrahim Traoré devient viral sur les réseaux sociaux. Nous avions déjà épinglé une vidéo similaire en octobre dernier, dans le cadre de l’élection présidentielle au Cameroun. Cette fois, on pensait entendre Ibrahim Traoré critiquer le régime de Paul Biya. Mais, là encore, c’était un deepfake. À lire aussiPrésidentielle au Cameroun: attention à ce deepfake d’Ibrahim Traoré Grâce à une recherche par image inversée, nous avons pu remonter la piste de ce deepfake. Le primo-diffuseur est une chaîne YouTube baptisée Rêves Panafricains. Au gré de l’actualité, ce compte diffuse presque quotidiennement des hypertrucages d’Ibrahim Traoré. On pense l’entendre s'adresser à Donald Trump, Emmanuel Macron, Vladimir Poutine ou encore Kylian Mbappé. En légende de ces vidéos, un texte indique bien que le contenu a été généré numériquement. Un message difficile à trouver et volontairement ignoré par ceux qui partagent ce clip sur les réseaux sociaux. Résultat, ces deepfakes d’Ibrahim Traoré cumulent plusieurs millions de vues.
15/12/2025 • 03:15
Dans les Caraïbes, la présence de l’armée américaine depuis plusieurs mois suscite de vives tensions avec le Venezuela. Washington y a déployé des navires de guerre, officiellement pour lutter contre le narcotrafic. De son côté, Caracas dénonce une agression en préparation et multiplie les manœuvres militaires. Si Donald Trump et Nicolás Maduro se sont téléphoné, la situation reste volatile. Une crise à laquelle s’ajoute un flot de désinformation. À en croire plusieurs vidéos mensongères diffusées sur les réseaux sociaux ces derniers jours, les États-Unis auraient « déjà déclaré la guerre au Venezuela ». Le clip le plus viral cumule plus de 7 millions de vues. Durant trente secondes, on pense y voir un groupe de soldats vénézuéliens paniqués, en bord de mer. Impuissants, ils observent l’arrivée de plusieurs navires de guerre et d’avions de chasse, prétendument américains. L’un d’eux allume même une fusée de détresse. En réalité, cette vidéo n’est pas réelle. Plusieurs éléments montrent que ces images ont été générées par intelligence artificielle. Visuellement, on remarque plusieurs incohérences. Un objet apparaît sans raison dans la main de l’un des soldats. Un texte étrange, illisible, est inscrit sur la fusée de détresse. De plus, les navires de guerre sont beaucoup trop proches de la côte. Trouver le primo-diffuseur Grâce à une recherche par image inversée (voir ici comment faire) nous avons retrouvé le primo-diffuseur, c’est-à-dire le compte à l’origine de ces images. Il s’agit d’un créateur TikTok, hispanophone, habitué à diffuser des fausses informations. Lui-même indique que cette vidéo a été générée par une IA. Ce message d'avertissement est volontairement ignoré par les comptes qui repartagent sa vidéo. L’indicateur temporel est un autre élément de vérification. En effet, la vidéo est composée de trois séquences de dix secondes chacune, mises bout à bout. C’est la durée standard d’une vidéo générée par les outils d’IA les plus populaires. À lire aussiSora 2: le générateur de vidéos par IA qui a tout pour devenir une usine à infox Un exercice militaire en 2020 Au-delà de ce type de contenus artificiels, nous avons également identifié plusieurs vidéos sorties de leur contexte, à l’image de cet extrait montrant des soldats vénézuéliens, sur le toit d’un immeuble à Caracas. Sous l'œil des journalistes, ils s’entraînent à utiliser des MANPADS, des systèmes portatifs de défense antiaérienne. Ici, ce sont de vieux modèles russes, type Igla 1. Les comptes qui diffusent ces images parlent d’une scène filmée ces dernières semaines. Vérification faite, c’est faux puisque nous avons retrouvé cette même vidéo publiée par des médias hispanophones, il y a plus de cinq ans, en février 2020. C’était dans le cadre d’un exercice militaire baptisé Bouclier bolivarien. Semer la peur Les tensions entre les États-Unis et le Venezuela sont un sujet porteur sur les réseaux sociaux. Avec ces fausses informations, certains cherchent donc, par opportunisme, à surfer sur la crise pour faire des vues et monétiser leur audience. D’autres cherchent véritablement à attiser les tensions en semant le doute et la peur.
05/12/2025 • 03:16
En République démocratique du Congo, une vidéo mensongère de Marine Le Pen sème le doute sur les réseaux sociaux. Certains affirment, à tort, qu’elle montrerait la présidente du Rassemblement National critiquer Félix Tshisekedi. Vérification faite, il s’agit là d’une nouvelle infox destinée à dénigrer le président congolais. C’est un de nos auditeurs qui a lancé l’alerte. À en croire cette vidéo, Marine Le Pen aurait récemment pris la parole à propos de la situation politique en République démocratique du Congo. Les images montrent la présidente du Rassemblement National lors d’un discours à l’Assemblée nationale, en France. On pense alors, à tort, l’entendre critiquer le président congolais. Cet extrait, vu plusieurs millions de fois, circule sur TikTok, Facebook, X, YouTube et WhatsApp. Un hypertrucage ultra-réaliste En réalité, Marine Le Pen n’a jamais tenu ces propos. Cette vidéo est un deepfake, un hypertrucage sonore généré par intelligence artificielle. Ce type d’outil permet de faire dire n’importe quoi à n’importe qui en seulement quelques clics. Si l’on regarde bien la vidéo, on remarque que le mouvement de ses lèvres ne colle pas avec l’audio. L’auteur s’est donc contenté de manipuler le son, mais pas l’image. Grâce à une recherche par image inversée, nous avons retrouvé l’origine précise de ces images. Elles sont tirées du discours tenu par Marine Le Pen à l’Assemblée nationale, le 16 octobre 2025. Son parti venait de déposer une motion de censure infructueuse contre le gouvernement de Sébastien Lecornu. Sans surprise, durant les quatorze minutes de prise de parole, la cheffe de file du Rassemblement National n’y évoque à aucun moment la RDC ou son président Félix Tshisekedi. Un mode opératoire à la mode Ce n’est pas la première fois qu’un deepfake d’une personnalité politique française circule en RDC. Au début du mois, nous avions déjà épinglé un hypertrucage d’Éric Zemmour. Cette fois, on pensait voir le président du parti Reconquête critiquer Félix Tshisekedi lors d’une interview sur la chaîne de télévision française LCI. Mais là encore, c’est une infox, Éric Zemmour n’a jamais tenu une telle déclaration. Les images proviennent d’une émission spéciale diffusée sur LCI le 29 octobre dernier, à propos du vote du budget 2026 en France. Durant les trente-cinq minutes d’interview, Éric Zemmour ne parle à aucun moment de Félix Tshisekedi. D’après nos recherches, ces deux infox ont été diffusées par un influenceur congolais, fervent opposant à Félix Tshisekedi. La plupart de ses vidéos sont des deepfake destinés à critiquer le président congolais. Son compte TikTok cumule actuellement plus de 33 millions de j'aime.
28/11/2025 • 03:18
Au Mali, le blocus imposé par les jihadistes du Jnim se poursuit. Le Groupe de soutien à l'islam et aux musulmans lié à Al-Qaïda a annoncé, mardi 18 novembre, un durcissement de l’embargo décrété sur les importations de carburant. Faux communiqués, images sorties de leur contexte, cette crise sécuritaire est particulièrement propice à la désinformation sur les réseaux sociaux. Personne n’échappe à ce flot de désinformation, à commencer par les Forces armées maliennes (Famas). À en croire un communiqué mensonger diffusé cette semaine, les Famas auraient décidé de procéder à « l’instauration du recrutement militaire obligatoire ». Il y est écrit, à tort, que la mesure devrait entrer en vigueur le 1er décembre prochain, et concerner « tous les citoyens maliens âgés de 18 à 45 ans ». Vérification faite, ce communiqué est faux sur le fond, mais aussi sur la forme. En réalité, l'état-major général des Armées n’a jamais publié un tel document. Nous avons consulté l’ensemble des canaux de diffusion officiels liés aux Famas et ce communiqué est introuvable. On note aussi une erreur dès le début du texte avec une lettre en minuscule et non en majuscule comme le veut la règle. Face à la viralité de cette infox, l’armée malienne a publié un démenti, appelant à éviter de relayer ce type de contenus. Le fléau des faux communiqués Ce n’est pas le seul faux communiqué qui circule actuellement au Mali. En effet, nous avons également identifié un autre document mensonger, attribué cette fois au ministère de l’Administration et de la décentralisation. Alors que plusieurs pays ont appelé leurs ressortissants à quitter le Mali ces dernières semaines, ce communiqué affirme que les autorités maliennes auraient, en représailles, mis en place une mesure d'interdiction de territoire à l'encontre de ces ressortissants. Là encore, tout est faux. On remarque déjà plusieurs erreurs au niveau de la charte graphique. Le texte est bizarrement centré au milieu de la page, il n’est pas justifié, comme dans les documents officiels. Il y a aussi des fautes de syntaxe avec des mots manquants. L’élément le plus important, c’est le numéro 78 attribué à ce communiqué. Lorsque l’on cherche le communiqué n°78 sur le site officiel du ministère malien de l’Administration et de la décentralisation, on trouve un communiqué bien différent. Il y est question du glissement de terrain mortel survenu en Guinée, à Manéah et non des ressortissants occidentaux présents au Mali. Des terroristes du Jnim déposent les armes ? Des infox ciblent également les jihadistes du Jnim. Ces derniers jours, plusieurs comptes affirment, à tort, que « 234 terroristes du Groupe de soutien à l'islam et aux musulmans se seraient rendus à l’armée malienne ». Leur infox repose sur une série de photos où l’on voit des terroristes alignés devant leur moto. Dans les faits, ces images proviennent d’une vidéo de propagande montrant des membres du Jnim priant avant l’attaque d’un village dans le sud du Mali. La capture de 234 combattants jihadistes n’est donc pas réelle. L’armée malienne elle-même n’a jamais communiqué sur un tel événement.
21/11/2025 • 02:59
Le général nigérien, Abdourahamane Tiani, était cette semaine en tournée dans le pays. À Dosso, dans un discours devant des militaires, il a laissé entendre que la France préparait des opérations de déstabilisation contre le Niger et plus largement contre les états de l’AES. Il a pointé du doigt l'arrivée d’un navire de guerre français dans le port de Cotonou, affirmant, à tort, que ce bateau était venu à plusieurs reprises décharger des soldats français au Bénin. Ce n’est pas la première fois que le chef du Conseil national pour la sauvegarde de la patrie (CNSP) affiche des positions hostiles à la France. Ces dernières années, des accusations mensongères, ont visé la France et l’Europe. Ces narratifs, ont été régulièrement relayés par les médias d’État au Niger. Cette fois-ci, le chef de la junte s’en est pris à la France alors que les relations entre le Bénin et le Niger sont dans l’impasse. Accusations récurrentes Dans son allocution du 8 novembre 2025 à Dosso, il a affirmé : « la volonté de la France à nous déstabiliser, est une vérité, et nous ne cesserons jamais de le dire (...) un porte-hélicoptère qui s’appellerait Tonnerre, a accosté au port autonome de Cotonou, à bord ce sont des milliers de soldats français, et ça doit être le dixième débarquement à travers des portes hélicoptères amphibies ». Après vérification, il apparaît que le général Abdourahmane Tianni s’est saisi d’une information tout à fait officielle, à savoir l’escale d’un navire français au Bénin, pour nourrir un narratif complotiste. Nous avons retrouvé la trace du porte-hélicoptère Tonnerre entre le 5 et 9 novembre dans le Port de Cotonou. La présence de ce bateau a d’ailleurs été annoncée sur la page Facebook de l’ambassade de France au Bénin. Exercices communs dans le golfe de Guinée Joint par RFI, l’état-major français, précise que ce navire participe à la mission de surveillance et de lutte contre la piraterie baptisée « Corymbe » et qu’il sera présent dans la zone du golfe de Guinée jusqu’à décembre prochain. D’ailleurs, le Bénin ne sera pas sa seule escale, puisque jusqu’au 17 novembre, l’équipage du bateau va participer à des exercices avec les marines de 18 pays de la région, du Sénégal à l’Angola, en passant par la Guinée et le Cameroun. La présence de navires de la Marine nationale française dans la région est courante, dans le cadre de Corymbe comme dans le cadre de l’exercice international Grand African Nemo qui se déroule depuis huit ans, donc bien avant l’arrivée de la junte au pouvoir au Niger. Des soldats français par milliers introuvables au Bénin… La capacité maximale d’un porte-hélicoptères comme le « Tonnerre » n'excède pas 900 hommes, et encore pour des opérations relativement courtes. Selon l’armée française, il y a, à bord du navire amphibie, un groupement tactique embarqué avec des véhicules militaires et environ 450 hommes, au total. Rappelons que le PHA est un gros navire. Il s’agit des fameux bateaux de la classe « Mistral » : 20 000 tonnes, 200 mètres de long, donc des bâtiments très visibles et facilement identifiables. En revanche, aucun convoi militaire français, n’a été observé, ni filmé à terre au Bénin, ces derniers temps. Or, on déduit aisément que ces milliers d’hommes ne seraient pas passés inaperçus.
14/11/2025 • 03:15
En Ukraine, la situation est très compliquée pour la défense ukrainienne à Pokrovsk. Assiégée par l’armée russe depuis plus d’un an, cette ville en ruine figure comme l’épicentre des combats sur le front est. L’offensive des soldats de Moscou s'intensifie sur le terrain, mais aussi en ligne, à coups d’infox générées par intelligence artificielle. À en croire une série de vidéos mensongères diffusées sur les réseaux sociaux ces derniers jours, des milliers de soldats ukrainiens « se seraient rendus à l’armée russe dans la région de Pokrovsk ». L’une d’entre-t-elle montre des dizaines d’hommes, désarmés, abandonnant leur tranchée. Une autre met en scène des centaines de combattants ukrainiens, alignés dans un champ, les mains sur la tête. Ces vidéos cumulent des millions de vues sur X, TikTok et Facebook. Vérification faite, ces clips ne sont pas réels. Ils ont tous ont été générés par Sora 2, le générateur de vidéos artificielles développé par Open AI, la start-up derrière Chat GPT. Plusieurs éléments le prouvent, à commencer par le petit logo Sora, apposé sur les images. Visuellement, on remarque aussi plusieurs incohérences, notamment au niveau des visages et des tenues portées par les soldats. De plus, ces vidéos durent chacune dix secondes. C’est, à ce jour, la durée standard des clips générés par Sora 2. Dans les faits, des milliers de soldats ukrainiens n’ont pas déposé les armes dans la région de Pokrovsk. L’armée russe elle-même n’a jamais communiqué sur un tel événement. À lire aussiSora 2: le générateur de vidéos par IA qui a tout pour devenir une usine à infox De jeunes soldats ukrainiens en pleurs ? Une autre vidéo mensongère censée montrer un soldat ukrainien en pleurs a également fait le tour des réseaux sociaux cette semaine. On y voit un jeune homme, dans un véhicule blindé, demander de l’aide en ukrainien. « J’ai été mobilisé, je me rends à Tchassiv Yar. Aidez-moi. Je ne veux pas mourir. Je n’ai que 23 ans », dit-il, les larmes aux yeux. Les comptes qui diffusent cette vidéo affirment que l’Ukraine forcerait les jeunes à aller à l’abattoir. Sauf qu’une nouvelle fois, tout est faux puisque cette vidéo a aussi été générée via Sora 2. Ce clip provient d’un compte TikTok, récemment supprimé, qui publiait quotidiennement ce type de contenu. C’est un cas particulier, car le visage du jeune homme visible dans ce clip correspond à celui d’un véritable influenceur russe, bel et bien vivant. Quelqu'un a donc détourné son identité. Dans les faits, la conscription en Ukraine ne concerne pas les moins de 25 ans. Désinformer et détourner l’attention Cette campagne de désinformation vise à dénigrer l’armée ukrainienne et affaiblir le soutien occidental à l’Ukraine. L’objectif, c’est aussi de détourner l’attention des difficultés rencontrées par l’armée russe depuis le lancement de son invasion à grande échelle en février 2022.
07/11/2025 • 02:55
Au Mali, le blocus imposé par les jihadistes du Jnim se poursuit. Ce mardi 28 octobre, le groupe terroriste proche d'al-Qaïda a attaqué un nouveau convoi transportant du carburant. Profitant de cette crise sécuritaire, plusieurs infox ciblent actuellement l’armée malienne. Le compte à l’origine de cette opération de désinformation vise à attiser les tensions avec la Mauritanie, dans un contexte diplomatique tendu entre les deux voisins. Tout commence ce mardi 28 octobre, avec la publication d’une vidéo mensongère sur TikTok. On y voit plusieurs jeunes hommes lancer des projectiles sur des militaires. Les soldats répondent par des tirs de sommation. L’affrontement se déroule en ville, sur une route bitumée. La légende affirme, à tort, que « l’armée mauritanienne aurait pris la ville de Tombouctou, détruit une base militaire et tué 200 soldats maliens ». Vérification faite, cette vidéo n’a rien à voir avec le Mali ou la Mauritanie. Cet affrontement a été filmé en Somalie. En réalité, l’armée mauritanienne n’a pas envahi le Mali et les deux pays ne sont pas entrés en guerre. Comme le confirment plusieurs habitants de Tombouctou dans les commentaires, ce récit a été inventé de toutes pièces. Une manifestation à Mogadiscio Grâce à une recherche par image inversée, nous avons retrouvé cette vidéo sur des comptes Facebook basés à Mogadiscio, en Somalie. En nous appuyant sur les éléments visuels les plus marquants, la route, les lampadaires, la végétation, nous avons pu géolocaliser précisément la scène, dans le district de Dayniile, en périphérie de la capitale. Selon la presse locale, des Somaliens manifestaient en septembre dernier contre les expulsions forcées de certains habitants. Opération de désinformation Cette infox s’inscrit dans une véritable opération de désinformation. Nous avons en effet identifié toute une série de contenus diffusant ce même narratif mensonger. Une autre vidéo prétend par exemple montrer des véhicules blindés de l’armée mauritanienne en direction de la ville de Nara, au Mali. Vérification faite, la vidéo a été filmée en Libye, par un soldat de l'Armée nationale libyenne. L'abréviation RIB, peinte sur la portière avant gauche du véhicule, indique qu’il s’agit d’une unité spéciale, chargée de la sécurité des frontières sud de la Libye. Un obscur compte TikTok à la manœuvre Derrière cette désinformation, on retrouve un obscur compte TikTok francophone créé en 2021. La plupart de ces contenus sont des infox faisant croire à un affrontement direct entre Bamako et Nouakchott. Ce récit fictionnel vise à dénigrer l’armée malienne et à attiser les tensions entre les deux voisins. Nous avions déjà épinglé ce profil en décembre 2024, avec une infox similaire. Inactif depuis plusieurs mois, il revient à la charge en exploitant la crise sécuritaire malienne et les récentes tensions diplomatiques avec la Mauritanie. Cet opportunisme lui permet de gagner en visibilité. La stratégie semble payante puisque ses 40 vidéos trompeuses totalisent plus de 24 millions de vues.
31/10/2025 • 03:18