Vidéos de guerre générées par intelligence artificielle, extraits de jeux vidéo présentés comme des combats réels, désinformation virale… Face à cette avalanche de contenus trompeurs, la plateforme X décide enfin d’agir en frappant au portefeuille les comptes qui profitent de ces vidéos manipulées. Une bataille cruciale pour la crédibilité de l’information à l’ère de l’IA.
Par Sahby Mehalla
La plateforme X s’est transformée en un véritable flot de vidéos de guerre fabriquées à l’aide d’outils d’intelligence artificielle. Photo IA / Le Manifest
La plateforme X se retrouve confrontée à une vague inédite de vidéos de guerre manipulées ou entièrement générées par intelligence artificielle. Face à la multiplication de ces contenus trompeurs, diffusés notamment dans le contexte des tensions entre les États-Unis et l’Iran, le réseau social dirigé par Elon Musk a annoncé une nouvelle politique visant à limiter leur propagation — non pas en les supprimant, mais en coupant leur rentabilité.
La circulation de vidéos trompeuses issues d’outils d’IA ou de jeux vidéo militaires s’est intensifiée ces dernières années sur les réseaux sociaux, alimentant les campagnes de désinformation en période de crise internationale. Les images issues de jeux vidéo ou de contenus générés artificiellement sont régulièrement utilisées pour tromper les internautes lors de conflits armés, brouillant la frontière entre réalité et fiction numérique.
Dans ce contexte, X tente désormais de répondre à une problématique qui dépasse largement la modération classique, la désinformation automatisée à grande échelle.
Dans les périodes de crise internationale, les réseaux sociaux deviennent souvent la principale source d’information instantanée pour des millions d’utilisateurs. Mais cette rapidité a un coût, la vérification des images devient extrêmement difficile.
Ces derniers jours, X s’est transformé en véritable flux continu de vidéos censées montrer des combats entre les États-Unis et l’Iran. Une grande partie de ces images aurait pourtant été produite à l’aide d’outils d’intelligence artificielle ou extraite de jeux vidéo militaires très réalistes.
Le phénomène n’est pas nouveau, les technologies de génération d’images et de vidéos par IA permettent aujourd’hui de créer des scènes de combat quasi indiscernables de la réalité, ce qui complique considérablement le travail de vérification journalistique et la modération sur les plateformes sociales.
Plutôt que de supprimer systématiquement ces contenus, la plateforme a décidé d’agir sur le levier économique.
La nouvelle politique prévoit :
▸ Suspension pendant 90 jours du partage des revenus pour tout compte publiant des vidéos de guerre générées par IA sans mention explicite.
▸ Exclusion définitive du programme de monétisation en cas de récidive.
Cette approche s’attaque directement à l’un des moteurs du problème, l’économie de l’attention. Depuis l’introduction du programme de partage des revenus publicitaires sur X, les créateurs ont tout intérêt à produire des contenus viraux, parfois au détriment de leur véracité.
Malgré cette nouvelle mesure, plusieurs questions restent ouvertes.
La plateforme n’a pas précisé clairement comment les créateurs doivent signaler qu’un contenu est généré par IA. Faut-il l’indiquer dans la description du post, ou directement dans la vidéo elle-même ?
Cette ambiguïté pourrait permettre à certains comptes de contourner la règle par de simples mentions discrètes.
Pour détecter les contenus suspects, X s’appuie notamment sur :
▸ les notes communautaires des utilisateurs
▸ des métadonnées techniques indiquant l’utilisation d’outils de génération d’images ou de vidéo.
Autre paradoxe notable, certains utilisateurs tentent désormais de vérifier l’authenticité des vidéos grâce à Grok, le chatbot intégré à X.
Mais cette pratique pose problème. Les modèles de langage ne sont pas des outils de vérification journalistique. Ils génèrent des réponses probables sur le plan linguistique, sans accès direct aux faits ou aux preuves visuelles.
Résultat ? certains contenus artificiels peuvent être validés à tort par ces systèmes, créant une boucle où l’IA produit la désinformation et tente ensuite de la vérifier.
Toutes les vidéos trompeuses ne proviennent pas forcément d’outils génératifs.
Parmi les contenus viraux recensés sur les réseaux sociaux :
▸ des images anciennes réutilisées hors contexte
▸ des séquences issues de jeux vidéo militaires
▸ des montages vidéo trompeurs présentés comme des événements réels.
Ces techniques de manipulation, plus anciennes que l’IA, restent parfois en dehors du champ direct de la nouvelle politique de X.
L’initiative de X pourrait réduire les incitations financières à publier de fausses vidéos de guerre. Mais elle ne résout pas le problème structurel, un système numérique qui récompense avant tout l’attention et la viralité.
Dans un écosystème où produire une vidéo convaincante peut prendre quelques minutes grâce à l’intelligence artificielle, alors que sa vérification exige du temps, des experts et des sources fiables, la bataille se déplace.
Elle ne se joue plus seulement sur le terrain militaire ou politique, mais sur un autre front, la confiance dans l’information.
Et dans l’ère des contenus générés par IA, la vraie question n’est plus seulement de savoir si un faux peut être créé — mais comment préserver la notion même de vérité.
ÉCRIT PAR SAHBY MEHALLA
Ajouter un commentaire
Commentaires