Grok Imagine épinglé : l’IA d’Elon Musk accusée d’avoir généré des deepfakes explicites de Taylor Swift

Publié le 6 août 2025 à 21:56

L’intelligence artificielle Grok Imagine, développée par xAI (filiale d’Elon Musk), est dans la tourmente après la diffusion de vidéos explicites générées à partir de l’image de Taylor Swift. Un scandale qui relance le débat sur l’éthique des IA génératives et la protection des personnalités publiques.

Par @sahbymehalla

Grok Imagine épinglé : l’IA d’Elon Musk accusée d’avoir généré des deepfakes explicites de Taylor Swift

Taylor Swift arrive à la cérémonie des Grammy Awards, le dimanche 2 février 2025, à Los Angeles. (Jordan Strauss / AP)

 

Alors que l’industrie de l’intelligence artificielle multiplie les annonces de progrès technologiques, la question de l’éthique semble parfois reléguée au second plan. C’est le cas de Grok Imagine, le générateur de vidéos lancé par Elon Musk via sa société xAI. En cause ? Un mode « spicy » activable en un clic, qui permettrait de générer des vidéos à caractère suggestif, y compris en représentant des personnalités publiques, sans consentement ni réelle barrière technique.

Un test mené récemment par un journaliste de The Verge a suffi à provoquer un tollé. En demandant une vidéo de Taylor Swift célébrant à Coachella avec des garçons, et en activant le fameux mode “spicy”, l’outil a généré une scène dans laquelle la chanteuse apparaissait dans une tenue semi-nue, suggestive, sans que cela ait été demandé dans la requête. Ce genre de dérive rappelle les dérives antérieures du deepfake, mais franchit ici un nouveau cap, l’automatisation accessible à tous.

Contrairement à ses concurrents comme Google Veo ou Sora d’OpenAI, Grok Imagine ne semble intégrer que des filtres très basiques. Aucune authentification d’âge n’est réellement requise, seulement une case à cocher. Quant aux garde-fous pour protéger les personnalités publiques, ils sont aux abonnés absents.

La société mère, xAI, se défend en affirmant que « l’outil n’a pas pour vocation à générer du contenu explicite sans consentement », mais les faits sont là, plusieurs vidéos mettant en scène des figures célèbres, dont Taylor Swift, ont été générées sans que les termes utilisés dans les prompts n’évoquent la nudité ou la sexualisation.

Ce n’est pas la première fois que Taylor Swift est confrontée à ce genre de détournement numérique. Déjà ciblée par des deepfakes sexuels en début d’année, l’artiste est devenue, bien malgré elle, le symbole de cette faille éthique majeure. Si elle n’a pas (encore) commenté cet incident publiquement, plusieurs associations de défense des droits à l’image ont pris la parole pour dénoncer une forme de « pornographie algorithmique non consentie ».

Du côté de Google ou OpenAI, les politiques sont radicalement différentes. Les modèles comme Veo ou Sora bloquent par défaut toute tentative de générer des contenus explicites, encore plus lorsqu’une célébrité est mentionnée. Cette approche, jugée plus responsable, repose sur une combinaison d’analyses textuelles et visuelles, ainsi que sur des bases de données de visages à ne pas exploiter.

Si Elon Musk et xAI prônent une IA “libre” et “non censurée”, certains y voient surtout un business model basé sur la viralité à tout prix, au mépris des dommages collatéraux humains.

Faut-il réglementer ces IA plus sévèrement ? La question est désormais sur la table. Et face à l’inaction de certains géants de la tech, nombreux sont ceux à appeler à une intervention législative urgente.

 

ÉCRIT PAR : SAHBY MEHALLA

Ajouter un commentaire

Commentaires

Il n'y a pas encore de commentaire.