Le 26 janvier 2026, la Commission européenne a annoncé l'ouverture d'une enquête visant le réseau social X, en raison des dizaines de milliers d’images de mineurs et de femmes dénudés, générées par Grok, l'outil d'Intelligence artificielle (IA) intégré à la plateforme. L'enquête déterminera si la plateforme a pris des mesures suffisantes pour atténuer le risque de création et de diffusion des images qui ont exposé les citoyens de l’Union européenne (UE) à des préjudices graves.
La vice-présidente européenne chargée de la souveraineté technologique, de la sécurité et de la démocratie, Henna Virkkunen, a déclaré : "Les deepfakes sexuels visant des femmes et des enfants constituent une forme de violence et de dégradation inacceptable. Par cette enquête, nous déterminerons si X a respecté ses obligations légales en vertu du règlement sur les services numériques ou si l’entreprise a considéré les droits des citoyens européens, y compris ceux des femmes et des enfants, comme des dommages collatéraux de son service".
L'incapacité de la plateforme X au début janvier 2026, à empêcher la création d'images sexuellement explicites de personnes réelles, y compris d'enfants avait provoqué une forte opposition. Des préoccupations étaient déjà apparues dès la mi-2025 après que Grok a été enrichi d'une fonction payante appelée "Spicy Mode", qui permettait aux utilisateurs de créer des contenus explicites.
En tant que très grande plateforme en ligne désignée au titre du règlement sur les services numériques (DSA), X a l'obligation d'évaluer et d'atténuer tout risque systémique potentiel lié à ses services au sein de l'UE. Parmi ces risques figurent la diffusion de contenus illicites et les menaces potentielles que sa plateforme et ses fonctionnalités font peser sur les droits fondamentaux, y compris ceux des mineurs.