Une vidéo satirique intitulée « Le sultan soûlard est dépassé par la superdose de tramol » mise en ligne par une page facebook nommée Tchad Révolution Unie circule depuis quelques jours sur facebook. Sur cet enregistrement, le Sultan de Baguirmi, Sa Majesté Mbang Adji (aussi appelé Mbang Hadji Woli Mahamat), est censé participer à une conférence internationale et tenter de filmer la scène, avant d’être arrêté par des agents de sécurité. La vidéo sous-entend qu’il serait ivre et analphabète.

Qui est Mbang Adji (Mbang Hadji Woli Mahamat) ?
Mbang Hadji Woli Mahamat est le sultan héréditaire du Baguirmi et exerce aussi une haute fonction politique et est Premier Vice-Président du Sénat tchadien. Le 14 mai 2025, par exemple, il a été élu Vice-Président de l’Union Parlementaire de la Coopération Islamique, au nom du Tchad. En octobre 2025, il a participé à Genève à des réunions de haut niveau (par exemple sur le conflit Israël-Hamas) en tant que Vice-Président de l’Union parlementaire islamique. Aucun média ne rapporte d’incident à son propos lors de ces réunions internationales.
Ce que montre la vidéo
La vidéo virale présente le Sultan Mbang Adji devant une table, un téléphone en main. Le faux titre incruste « Le sultan soûlard est dépassé par la superdose de tramol » (une référence insultante à l’alcool et au tramadol, un médicament opiacé). L’image est caricaturale : on le voit faire des gestes bizarres avec ses mains (ramener rapidement le téléphone vers lui puis le reposer), comme si les mouvements étaient saccadés. Des auditeurs ricanent en arrière-plan et des agents de sécurité l’« arrêtent » sommairement. Sous-entendu : il est ivre et illettré. Aucune source fiable ne corrobore cet incident. Les sites d’information tchadiens consultés (Hamama Média, Tachad) décrivent sa participation à la conférence de Genève sans incident. Aucun reportage n’indique qu’il ait été “arrêté” ou pointé du doigt pour son attitude.
Absence de documents sources réels.
Si cette scène avait eu lieu, on s’attendrait à trouver des vidéos originales provenant de journalistes ou de comptes officiels. Or l’unique trace de cette séquence est cette vidéo montée, diffusée sur des réseaux sociaux informels (Facebook, Instagram), sans lien vers une source crédible. Cela indique qu’il s’agit d’un montage humoristique ou satirique, non d’un reportage authentique.
Démarche de vérification du fact-check
Pour analyser la véracité de la vidéo, nous avons procédé de la manière suivante :
- Usage d’outils de détection de deepfake. Nous avons soumis la vidéo à un service en ligne de détection de contenus synthétiques deepware.ai. Ces outils comparent la vidéo à des bases de données et cherchent des traces de manipulation. Il s’avère qu’ils ne confirment pas l’authenticité et signalent des incohérences (mais ils ne peuvent pas toujours fournir un résultat absolu). En effet, comme le rappelle la Fondation Mozilla, les techniques actuelles ne peuvent pas garantir l’identification fiable de toutes les vidéos truquées. Une absence de métadonnées claires ou un léger filigrane IA peuvent passer inaperçus. En pratique, l’analyse automatique n’a pas repéré de signature de vidéo « live », ce qui plaide en faveur d’un montage.
- Analyse visuelle des anomalies (liens avec les deepfakes). Plusieurs indices techniques dans la vidéo correspondent à des signes classiques de deepfake ou de trucage vidéo:
- Gestes saccadés et expressions figées. La main du Sultan fait un mouvement brusque (jerky motion) lorsqu’elle replace le téléphone. Les experts en détection notent que des mouvements « trop rigides » ou saccadés sont souvent révélateurs d’une animation IA. Dans une vidéo authentique, les gestes humains sont habituellement plus fluides.
- Battements cardiaques invisibles. Les travaux récents montrent qu’une vidéo filmée d’une vraie personne laisse apparaître, imperceptiblement, des variations de teinte sanguine du visage (due au pouls). Les deepfakes, eux, reproduisent mal ce petit clignotement de couleur. Des chercheurs aux Pays-Bas expliquent qu’« on détecte le flux sanguin autour des yeux, du front et de la mâchoire – ce qui manque dans les deepfakes » , car « l’IA ne peut pas générer de pouls convaincant » . En visionnant la vidéo, on ne décèle pas cette nuance naturelle de peau (le visage du Sultan paraît uniformément éclairé, sans pulsation). Cette absence, si discrète soit-elle, suggère un contenu modifié.
- Problèmes d’éclairage et d’ombre. Le blog de vérification « AI or Not » note que les deepfakes ont souvent un éclairage incohérent. Ici, le visage du Sultan apparaît parfois trop lumineux par rapport à l’arrière-plan sombre, ce qui est un signe d’incompatibilité physique. Le masque de l’IA peut avoir mal géré les ombres ou la balance des couleurs, ce qui crée un effet « sur-luminosité » suspect sur son visage.
- Expressions faciales et mouvements oculaires. Bien que la vidéo soit courte, on peut noter que le Sultan cligne peu des yeux et que ses yeux semblent fixes. Or, comme l’explique un guide de détection, de fréquents clignements (15-20 par minute) sont naturels ; un compte clignote rarement est anormal. Les lèvres bougent un peu mal synchronisées avec le son. Ces petits détails (mouvements oculaires et labiaux peu naturels) sont des indices usuels de falsification vidéo.
Verdict : vidéo manipulée (FAUX)
La vidéo en question n’est pas authentique. Il s’agit d’un montage créé pour se moquer du Sultan Mbang Adji. Son titre diffamatoire (« sultan soûlard, superdose de tramol ») est mensonger. Les analyses techniques (outils de détection, incohérences visuelles) et factuelles (absence de source, biographie du personnage) convergent pour conclure qu’il s’agit d’un canular viral. Les éléments de preuve appuient donc le dévoilement d’une fausse vidéo deepfake.
En résumé : aucune preuve crédible ne vient étayer l’« incident » montré dans la vidéo. Les anomalies visuelles observées correspondent à des défauts connus de vidéos générées par IA. Les technologies actuelles ne permettent pas de dissimuler totalement ces artefacts. Par conséquent, cette vidéo doit être considérée comme un montage satirique et non comme un reportage authentique.
Cette vérification des faits a été réalisée par SaoCheck dans le cadre du programme d’incubation de l’Alliance africaine de vérification des faits (AFCA). Elle a été produite grâce au mentorat de l’initiative de vérification des faits de Code for Africa, PesaCheck, et au soutien financier de la Digital Democracy Initiative dans le cadre du projet Digitalise Youth mené par le Partenariat européen pour la démocratie (EPD). Le mentorat de l’AFCA respecte l’indépendance journalistique des chercheurs, en leur offrant l’accès à des techniques et des outils avancés. La décision éditoriale reste du ressort de SaoCheck. Pour en savoir plus, rendez-vous sur : https://fr.factcheck.africa