L’Intelligence Artificielle (IA) est désormais omniprésente, englobant des technologies allant de l’automatisation basique à des systèmes avancés capables d’apprentissage et d’adaptation. Comment cet outil, conçu pour améliorer nos vies, peut-il aussi nourrir et diffuser des théories du complot ? Pourquoi suscite-t-il à la fois fascination et méfiance ? Et surtout, comment peut-il, dans certains cas, devenir un allié dans la lutte contre la désinformation ?
TikTok : terrain fertile pour les théories du complot
« La Terre est plus grande que ce qu’on tente de nous faire croire. Le débat sur la forme de la terre ronde ou plate fait rage. Certains avancent même l’hypothèse d’une conspiration. Et s’il n’y avait pas que sept continents sur terre, Et si l’antarctique n’était qu’un gigantesque mur de glace qui dissimule l’existence d’autres continents inconnus au-delà. Imaginez que vous vous aventurez au-delà de ces barrières de glace et que vous découvrez non pas sept, mais vingt continents cachés ? » Ce texte est un extrait d’une vidéo TikTok avec la description : « La terre est plus grande que ce qu’on tente de te faire croire ».
Il suffit d’aller sur tik tok et saisir ‘’Théorie du complot’’ et vous aurez un mur de vidéos qui vous sont suggérées, et qui sont pour la plupart d’entre elles, basées sur le même principe : Une vidéo générée par l’IA. Ce compte dont nous venons de voir la transcription d’un extrait de vidéo est un compte assez important qui a plus de 360 000 abonnés avec 3,1 millions de likes et produit des vidéos de manière presque industrielle basées sur des théories du complot. Nous pouvons donc voir ici que nous sommes sur l’exploitation ou la saturation si vous voulez, d’un créneau de thèmes de théories du complot. Compte tenu de l’échelle et du volume de la production, il parvient à obtenir un public qu’il peut clairement monétiser. C’est donc un phénomène réel que nous voyons se répandre sur TikTok et sur d’autres réseaux sociaux.

L’effet de ciseaux : quand la vérité devient plus coûteuse que le mensonge
En plus d’évoquer cette notion de business, d’IA et de désinformation, il faut parler de cet effet ciseaux que nous avons entre d’une part, l’augmentation des coûts liés à la vérification des faits. Le journalisme de qualité coûte cher surtout dans un contexte où la presse classique traverse une crise structurelle étant donné la concurrence déloyale que les plateformes livrent et qui de plus, maintiennent l’illusion que l’information est libre parce qu’elle est accessible.
En réalité, il s’agit d’un système de vampirisation du journalisme par les plateformes des médias sociaux. D’autre part, un effondrement des coûts de production du faux, de la désinformation, des fausses nouvelles. Et donc cet effet de ciseau joue en faveur de la propagande, de la théorie du complot et de la désinformation.
La modération en péril : les plateformes face à leurs responsabilités
Il faut aussi souligner que toute cette confusion de l’information produite par ces générations d’IA, surtout celles qui nourrissent les théories du complot, augmente leurs terreurs naturelles de multiplication et de viralisation et se propagent rapidement. C’est vraiment le vecteur des réseaux sociaux qui accélère la visibilité ou la plaque de visibilité de tous ces contenus conspiratifs générés par l’IA. Cependant, il s’avère que comme nous l’avons vu ces derniers mois, les plateformes sociales réduisent considérablement la modération. Et donc c’est une occasion folle pour ces contenus générés par les théoriciens de la conspiration. Il est clair qu’ils vivent aujourd’hui leurs meilleurs jours. Il y a un vrai business de contenu purement divertissant, totalement fictif sur TikTok par exemple.
Certains peuvent être pris au premier degré. Exemple avec Redazere en 2024.
Redazere : quand l’IA amplifie les théories du complot
« Le mystère des pyramides, comment ont-ils pu la construire quand ils n’avaient pas de technologie ? Voilà frérot, des géants. Nous on sait que dans le Coran, des géants ont été mentionnés… J’étais sûr, ma théorie avait du sens, Dieu sait. Mais comment l’ont-ils fait ? C’est comme ça qu’ils l’ont fait. Cette vidéo est incroyable. Les géants… Les géants existaient. Oui, monsieur. Il est écrit dans le Coran. Des êtres super grands. Il y a ceux qui ont déplacé des blocs. Eh bien, c’est de l’IA mais cela confirme ma théorie. »
Redazere de son vrai nom, Reda El Mory dans cette vidéo, estime que des géants ont construit les pyramides d’Égypte. Il s’agit d’un influenceur algérien qui vit au Québec et qui accumule près de 4 millions d’abonnés sur TikTok avec des vidéos qui dépassent les 5 millions de vues. Et à plusieurs reprises, il s’engage dans la conspiration. Nous avons donc affaire à un véritable influenceur Tik Tok. Ce que nous trouvons intéressant ici avec cette séquence, c’est qu’on le voit rebondir sur une vidéo qui montre des géants déplaçant d’énormes pierres pour construire les pyramides. Et nous pouvons voir qu’il utilise ce support généré par l’IA pour confirmer son parti pris de conspiration. Il est conscient qu’il s’agit d’une image qui est générée par IA parce qu’ évidemment, il n’y avait pas de vidéo au moment des pyramides. Dans ce cas, l’IA devient un support pour illustrer, pour confirmer, une fois de plus, son parti pris conspiratif.
Pourquoi donc cette production du faux existe-t-elle ? Et à quoi sert-elle ?
Le pouvoir de l’image : l’émotion au service de la désinformation
Comme saint Thomas, on croit en ce qu’on veut croire… L’image joue ici une fonction de renforcement de la croyance, facilite une confirmation de la croyance, comble un vide là où l’image réelle, la photographie, le film est absent. Jusqu’à présent, c’était l’industrie cinématographique, le monde de l’art qui assurait cette fonction sociale, incluant des images ultra réalistes, que nous avons du mal à distinguer des photos réelles. Maintenant si nous voulons voir des extraterrestres ou soucoupes volantes ou géants, si nous voulons voir une carte de l’île de l’Antarctique figée par le temps, il faut juste quelques secondes à peine et l’image est là, un support de croyance, un vecteur d’idées.
Cela vient d’un pouvoir symbolique. Il a aussi la capacité de soutenir les émotions, l’enthousiasme, la colère. C’est le rôle des icônes par exemple qui représentent ce qui est immatériel comme dans des religions. Pendant la dernière campagne présidentielle Américaine par exemple, nous avions Elon Musk qui avait partagé une vidéo d’IA qui était satirique à l’origine de Kamala Harris qui lui a fait dire des choses, ce qu’elle n’avait absolument pas dit, qui étaient totalement caricaturales.
Et Elon Musk ne précise pas déjà que c’était une caricature. Au-delà du fait qu’elle soit générée par IA, cette vidéo a été mise sans description et on peut déjà se poser la question sur le nombre de personnes qui l’ont pris au premier degré avec ces millions d’abonnés.

Les chatbots : entre complicité et résistance aux théories du complot
Un point important aussi qu’il faudrait souligner est que les robots conversationnels peuvent aussi produire de la désinformation. Un exemple peut être pris avec la société chinoise Deep Seek.
Le site News Guard Analyste de la désinformation nous informe que ce chatbot ne réussit pas à fournir des informations exactes, surtout sur certaines questions dans 83 % des cas précisément dans 30 % des cas, ils génèrent du faux contenu, dans 53% des cas ils fournissent des non-réponses. Nous avons aussi observé qu’ils s’auto-censurent régulièrement sur des sujets sensibles. C’est-à-dire, il commence à générer une réponse classique que nous pourrions trouver avec tout autre chatbot comme ChatGPT par exemple, puis il l’efface après quelques secondes en remplaçant sa réponse par un message qui dit dans le fond « Désolé je vous propose de parler d’autre chose… » Et parfois cela arrive même quand nous lui demandons à nouveau de générer une réponse, ce qu’il nous sert est un discours extrêmement idéologique.
Nous avons fait l’expérience avec la répression des manifestants de la place Tian’anmen en 1989 à Pékin qui est une page sombre de l’histoire de la République populaire de Chine et Deep Seek nous a servi une version totalement propagandiste à la gloire du Parti communiste chinois. News Guard a aussi fait le test avec les massacres de Boutcha en février 2022 commis par les Russes en Ukraine. Quand elle a interrogé Deep Seek, la position de la propagande chinoise a été mise en avant. Lorsqu’on lui demandera s’il s’agit d’une mise en scène, il évitera soigneusement de se prononcer et ainsi jettera le doute sur ce qui s’est passé et nourrira les théories du complot qu’ils pourraient avoir autour de Boutcha. Ici nous avons vraiment une IA qui participe clairement à l’accélération de la perception des théories du complot autour d’événements qui sont problématiques géopolitiquement ou veulent être bien encadrés par le régime chinois aujourd’hui. Un autre exemple de robot conversationnel, celui de Gab, un réseau social américain qui a eu la triste idée de lancer près de 100 chatbots, dont un à l’image d’Adolf Hitler. C’est une IA conversationnelle qui a été créée par un américain, appelé Andrew Torba.
Et ainsi il a lancé sa propre IA qui s’est formé sur du contenu conspirationniste, raciste, antisémite, mais conspirationniste pour ce qui nous intéresse. Lorsqu’on lui pose des questions sur le climat, il considérera qu’il s’agit d’une escroquerie. Il dira que les élections de 2020 aux États-Unis ont été truquées ou par exemple, il niera également la réalité de l’Holocauste. Voici une IA qui est un peu comme Deep seek, orientée idéologiquement. Clairement, c’est une IA qui a une volonté claire et explicite de propagande, et c’est quelque chose qui est le résultat, encore une fois, d’un entraînement sur un corpus particulier. Et selon le corpus sur lequel l’IA se forme, nous avons un biais qui peut être assez déroutant.
Nous avons eu un exemple en 2016 avec Microsoft, qui avait lancé une IA expérimentale et conversationnelle sur Twitter appelée TAIY, et qui a évolué selon l’interaction qu’elle aurait pu avoir. Il s’est donc formé sur un corpus qui était les échanges qu’il pouvait avoir avec des gens sur Twitter. Cependant, bien sûr nous avions une masse de jeunes trolls qui s’amusaient à essayer d’impacter le corpus de formation et orienter TAIY pour lui faire dire des choses absolument folles. Et donc très rapidement, il y’a eu cette discussion au début du lancement de GPT, puisque cette IA expliquait qu’Hitler avait fait un bon travail, ou que Donald Trump était le meilleur candidat pour les États-Unis… Microsoft a dû fermer les robinets…. Mais là encore, on voit le symptôme du fait qu’une IA n’est que le résultat du volume de données de formation sur lequel elle sera formée. Et l’intelligence artificielle peut aussi être utilisée comme outil de propagande.
Un autre exemple est celui d’une deepfake d’Emmanuel Macron. Le président français aurait réagi à la répression meurtrière d’une manifestation à Goma le 30 août 2023 dans un entretien avec France 24. C’est ce qu’une vidéo sur les médias sociaux prétend avoir paru quelques jours plus tard, sauf que c’est faux. Et c’est vraiment un exemple symptomatique de ce que nous avons vu apparaître ces dernières années. Ce n’est pas la première fois que la voix d’Emmanuel Macron a été déformée et utilisée par une IA sonore pour lui faire dire des choses qu’il n’a jamais dites et avec un seul objectif qui est strictement politique. Nous sommes dans une réelle guerre de l’information. C’est essayer de faire dire à son adversaire des choses qui pourraient lui être défavorables, délétères, ou que nous pourrions utiliser peut-être pour allumer un discours allant dans un sens précis.
Nous avons vraiment une utilisation de l’IA par des agents, presque des agents de l’État qui essaient aussi de gonfler la confusion de l’information chez leurs adversaires avec des discours qui peuvent, encore une fois, être traduits dans n’importe quelle langue, qui peut être déformée. Nous ne sommes malheureusement qu’au début de l’utilisation presque systématique de ces IA génératives dans le but de la propagande géopolitique et de la guerre d’information entre les États, et l’intelligence artificielle devient alors un véritable outil dans la guerre de propagande.

L’IA comme alliée : des outils pour combattre la désinformation
Notons que d’une certaine manière, la facilité de faire une vidéo aujourd’hui nous permet de lutter rapidement et efficacement contre la désinformation. Là où le contenu vidéo vient souvent des jours après une fausse information, on peut écrire trois lignes, appuyer sur un bouton, et l’avatar fera un contenu vidéo qui répondra immédiatement à la question en plus d’avoir un contenu intéressant qui est souvent plus regardé que les textes. Il y a donc des choses qui permettront grâce à IA, de combattre plus facilement la désinformation. Nous pouvons aussi être alertés très rapidement par exemple, lorsqu’il y’a de l’information qui se répand, un nouveau contenu sur YouTube, nous pouvons avoir des IA qui nous feront des résumés, nous envoient ces résumés et nous donnent l’information très rapidement. Voici donc ce qu’il faut faire pour aller à l’encontre de ces types de contenu.
Et les résultats semblent assez prometteurs, pour ceux qui ont cru à ces théories du complot, leur niveau de croyance a diminué de 20% selon l’étude. Et un quart d’entre eux ont même complètement abandonné leurs théories de conspiration qu’ils les avaient au début. Pourquoi ? Parce que l’IA est capable de répondre aux arguments factuels par des arguments factuels, de démanteler chaque argument, parce qu’encore une fois, il se concentre sur un très grand volume de données. Nous avons même si ce n’est pas nécessairement vrai, un sentiment d’objectivité. Nous parlons à un robot, nous ne parlons pas à un humain qui pourrait essayer de nous convaincre parce qu’il a lui-même ses propres convictions. Une autre IA qui existe pour lutter en particulier contre la désinformation et le complot est VERA. C’est un outil développé par un collectif de citoyens français appelé Réponse Tech. Il s’agit d’un robot conversationnel classique mais sa spécificité est la recherche en temps réel et est lié au contenu de plus de 300 médias jugés fiables pour générer une réponse documentée, sourcée et aussi impartiale que possible. Elle s’appuie sur les ressources de plus de 100 équipes et collectifs reconnus de vérification des faits.
Plus globalement, nous avons l’impression, pour les avoir essayés, que les différentes IA, les chatbots classiques comme ChatGPT, Gemini… ont des versions relativement liées aux théories du complot. Donc, tant que notre passerelle d’accès à l’information passe par ces chatbots populaires, bien encadrés et bien modérés a priori, nous sommes plutôt bien orientés sur les théories du complot.
Vers une utilisation responsable de l’IA
Alors que l’IA continue d’évoluer à un rythme vertigineux, il est crucial que nous nous engagions collectivement dans une utilisation responsable de ces technologies. L’IA peut être un outil puissant pour combattre la désinformation et les théories du complot, mais elle peut également les amplifier si elle n’est pas affichée correctement.
Les exemples de chatbots comme Debunk Bot montrent que l’IA peut être utilisée pour réduire efficacement les croyances en théories du complot. Cependant, des expériences comme celle de TAY de Microsoft nous rappellent les risques potentiels si l’IA n’est pas bien conçue et modérée. Il est donc essentiel de développer des normes éthiques strictes pour le développement et la mise en œuvre de l’IA, en veillant à ce qu’elle serve l’intérêt public et non celui de quelques individus ou groupes.
Enfin, la lutte contre la désinformation nécessite une collaboration étroite entre les chercheurs, les entreprises technologiques, les médias et les citoyens. Nous devons encourager une culture de vérification des faits et de pensée critique, tout en soutenant les initiatives qui utilisent l’IA pour promouvoir la vérité et la transparence. Seulement ainsi pourrons-nous garantir que l’IA soit un outil de progrès et non un vecteur de désinformation.
Article rédigé par Denis NGARNDIGUINA
