Depuis le début de l’année, les témoignages se multiplient. Des femmes découvrent sur X des images les représentant dénudées, générées artificiellement à partir de simples photos publiques. En cause, Grok, l’outil d’intelligence artificielle développé par xAI et déployé sur la plateforme d’Elon Musk. Les requêtes permettant d’obtenir ces images sont d’une simplicité déconcertante. Il suffit de demander à l’IA de modifier une photo pour afficher une personne en sous vêtements ou nue.
La haute commissaire à l’enfance, Sarah El Haïry, s’est dite « scandalisée » par ces usages. Elle a rappelé que « si l’image est artificielle, le préjudice est bien réel ». Sur la plateforme, le hashtag #Grok figurait début janvier parmi les sujets les plus commentés, dépassant le million de publications en quelques heures.
Une mobilisation politique rapide
Face à l’ampleur du phénomène, plusieurs responsables politiques sont montés au créneau. Le porte parole du Parti socialiste, Arthur Delaporte, a dénoncé des pratiques relevant du cyberharcèlement et annoncé vouloir proposer l’interdiction de ces fonctionnalités dans un rapport remis au gouvernement. Il a apporté son soutien à une doctorante dont l’image avait été détournée, ainsi qu’à l’ensemble des victimes.
Dans la foulée, trois membres du gouvernement ont saisi le procureur de la République et la plateforme Pharos. Le ministre de l’économie Roland Lescure, la ministre déléguée chargée du numérique et de l’intelligence artificielle Anne Le Hénanff et la ministre chargée de l’égalité entre les femmes et les hommes Aurore Bergé ont signalé des contenus « manifestement illicites » afin d’obtenir leur retrait immédiat.
Ils ont condamné « avec la plus grande fermeté » la génération et la diffusion de contenus sexuels non consentis, rappelant que les atteintes sexuelles commises en ligne constituent des infractions pénales à part entière.
Une enquête judiciaire élargie
Le parquet de Paris a confirmé avoir étendu son enquête visant X à l’IA Grok. Cette procédure, initialement ouverte à l’été pour des soupçons de manipulation algorithmique et d’ingérence, intègre désormais la production de contenus sexuels falsifiés. Le signalement de deux députés, Arthur Delaporte et Eric Bothorel, a contribué à accélérer cette évolution.
Le ministère public rappelle que le délit de montage à caractère sexuel d’une personne sans son consentement est puni de deux ans d’emprisonnement et de 60.000 euros d’amende. En parallèle, le gouvernement a saisi l’Arcom pour de possibles manquements de X à ses obligations au titre du Digital Services Act, notamment en matière de prévention des risques liés aux contenus illicites.
Des failles reconnues par xAI
De son côté, xAI, l’entreprise éditrice de Grok, a reconnu l’existence de failles de sécurité. Selon l’entreprise, ces défaillances ont permis la génération d’images sexualisées de mineurs, en violation de sa propre politique d’utilisation. Les contenus concernés ont été retirés et des correctifs ont été déployés en urgence.
« Nous avons identifié des failles dans les dispositifs de sécurité et nous les corrigeons de toute urgence », a indiqué xAI, rappelant que les contenus pédopornographiques sont illégaux et strictement interdits. Une position confirmée par des informations relayées par l’agence Bloomberg.
Les chiffres disponibles soulignent l’ampleur du phénomène. L’Internet Watch Foundation, organisation spécialisée dans l’identification des contenus pédopornographiques, a observé une hausse de 400 pour cent des images de ce type générées par intelligence artificielle au premier semestre 2025.
Une IA jugée plus permissive que ses concurrentes
Grok s’est rapidement distinguée par un positionnement plus permissif que les autres IA grand public. À l’été dernier, l’outil avait introduit un « mode épicé », autorisant la nudité partielle d’adultes et certains contenus sexuels. Si la création de pornographie mettant en scène des personnes réelles et des mineurs est officiellement interdite, les faits récents montrent que les garde fous n’ont pas suffi.
L’affaire relance le débat sur la responsabilité des plateformes et de leurs dirigeants dans l’encadrement des usages de l’intelligence artificielle. Au delà de X, elle pose la question de la capacité des régulateurs et de la justice à suivre le rythme de technologies capables de produire en masse des images fausses, mais aux conséquences bien réelles pour les victimes.


