Entre cette fin d’année 2025 et le début de 2026, nombre d’internautes sur X dénudent des femmes en demandant à Grok de les « mettre en bikini ». Certains d’entre eux vont plus loin en demandant à l’IA de le faire… avec des jeunes filles.
[ENQUÊTE] Être une femme et publier une photo de soi est devenu un calvaire en quelques heures sur X : depuis cette fin décembre, quasiment systématiquement un internaute demande à Grok (l’IA intégré au réseau social et avec laquelle on peut interagir) de modifier l’image et de la publier en réponse. La plupart du temps, il s’agit de la « mettre en bikini » ou « en lingerie », ou alors de faire en sorte qu’elle prenne une pose suggestive. En un mot, de sexualiser les femmes qui s’affichent. Le phénomène était déjà apparu en mai dernier et vient de prendre une nouvelle dimension. Mais comme a pu le constater Rotek à de nombreuses reprises, certains utilisateurs se servent de Grok pour produire ces mêmes photos avec des mineures. Le chatbot de xAI s’exécute et produit des contenus pédopornographiques. L’entreprise dit avoir corrigé le tir, mais le mal est fait.
Des petites filles « en bikini » grâce à Grok
Grok ne permet pas de déshabiller que des femmes en les mettant en bikini. Certains internautes profitent de cette « fonctionnalité » pour faire des demandes similiares à propos de petites filles. Rotek a pu consulter plusieurs demandes faites à Grok pour « mettre en bikini » des jeunes filles, à l’évidence mineures (de moins de 15 ans). Grok arrive à répondre à ces demandes et à les afficher portant des bikinis, sans se poser de questions. Autre usage que nous avons découvert : la possibilité d’ajouter un décolleté et grossir la poitrine d’une jeune fille.
Bien que le phénomène ait moins d’ampleur que pour des femmes majeures, il existe. Les images que nous avons consultées finissent par disparaître et les tweets en questions sont supprimés au bout de quelques dizaines de minutes. On ignore si c’est à cause de signalements d’utilisateurs ou bien de Grok ou des équipes de modération qui s’en rendent compte.

Le comble est réalisé par Grok lui-même, lorsqu’on lui a demandé d’estimer l’âge de deux jeunes filles sur une photo détournée : elles ont entre 12 et 16 ans selon lui et il les a représentées en maillot de bain de dos. Quand on lui pose la question, le chatbot le reconnaît : « Ce type de contenu généré par IA et représentant des mineures à caractère sexuel est illégal en vertu de la loi américaine ». Il arrive aussi à Grok de ne pas répondre correctement à toutes les requêtes : parfois, les petites filles sont totalement transformées en femmes adultes.

Ces photos d’enfants peuvent être publiées par leurs parents sur les réseaux sociaux, une pratique sur laquelle alertait encore la CNIL le mois dernier : « l’image de votre enfant peut être détournée à des fins malveillantes ». Aux États-Unis, le National Center for Missing & Exploited Children a enregistré l’année dernière plus de 67 000 signalements de deep fakes à caractère pédopornographique : c’était 4 700 l’année précédente. Les pédocriminels l’ont bien compris : mieux vaut générer des images par IA plutôt que de risquer à trouver de vraies images. C’est pourquoi sur les forums désormais, on s’échange aussi des prompts entre pédocriminels. Une méthode qui permet aussi d’éviter la détection par hash (un empreinte numérique des fichiers). Ces deepfakes réalisés par IA existent depuis longtemps, mais étaient cantonnés au dark web : avec Grok, ils arrivent sur le web que tout le monde peut consulter.
Pourquoi Grok est du pain béni pour les pédocriminels
Contrairement à d’autres générateurs d’images comme Midjourney ou Banana Pro de Gemini, xAI a pris moins de précautions avec son modèle Aurora (développé en interne). Dans la plupart des générations d’images, les utilisateurs partent d’une image d’un enfant déjà existante et poussent Grok à la modifier, souvent à plusieurs reprises, afin d’obtenir le résultat voulu. Impossible de créer une image d’un enfant nu, mais il est possible de faire apparaître des maillots de bain courts, des positions suggestives, etc.

Pour les pédocriminels, Grok est un générateur puissant, capable de créer des clichés photoréalistes en quelques dizaines de secondes. Le chatbot vient supprimer une barrière financière, puisqu’il est totalement gratuit et sûr à l’utilisation. Il est également très facile à utiliser : pas besoin d’aller sur d’obscurs forums du dark web pour trouver des images, ce qui est risqué. Pas besoin non plus de maîtriser un logiciel de retouche photo ou de payer un graphiste véreux pour le faire. Ce n’est pas la première fois que Grok est mis en cause par rapport aux enfants : le chatbot installé (par défaut) dans une Tesla a demandé à un garçon de 12 ans d’envoyer des photos de lui nu, rapportait CBC en novembre dernier au Canada.

Pire encore, une enquête de Business Insider en novembre dernier expliquait que selon plusieurs employés de xAI, l’entreprise a intégré du contenu explicite dans Grok, y compris certains représentant des abus sexuels sur les enfants. Le média prévenait : « la stratégie de xAI pourrait compliquer les choses lorsqu’il s’agit d’empêcher le chatbot de générer » ces contenus. On y apprend aussi que les employés s’inquiètent depuis longtemps du nombre d’alertes en rapport avec des tentatives de génération de contenus pédopornographiques.
Est-ce légal de demander à une IA de déshabiller des enfants ?
Rappelons que la création de deepfakes non consentis, qui plus est pour dénuder quelqu’un (en bikini ou en lingerie), est illégale. Elle pourrait tomber sous le coup de la loi LSREN (article 226-8 du Code pénal), qui punit la diffusion trompeuse sans consentement ni transparence algorithmique. Ce pourrait être le cas si les images sont réutilisées dans d’autres contextes. Dans le cadre des réponses de Grok, le fait que ces images soient générées par IA est explicite.

Néanmoins, le caractère suggestif reste : sans consentement explicite de la personne représentée, cela peut violer le droit à l’image (article 9 du Code civil), la vie privée (article 226-1 du Code pénal) ou qualifier de harcèlement si récurrent (article 222-33-2-1). En août dernier, le ministère de la Justice réaffirmait le champ du matériel pédopornographique dans une réponse à une question d’un sénateur : « le droit pénal français et la jurisprudence afférente appréhendent déjà de manière très large la notion de « matériel pédopornographique », dès lors qu’il constitue l’image ou la représentation, présentant un caractère pornographique d’un mineur ».

En France, les utilisateurs pourraient encourir des porsuites cibiles ou pénal, avec des amendes, voire des peines de prison. Modifier des photos de mineurs en bikini via du deepfake peut être qualifié de pédopornographie, même sans nudité totale. L’article 227-23 du Code pénal punit effectivement la fixation, l’enregistrement ou la transmission d’une image ou représentation d’un mineur à caractère pornographique. Les condamnations peuvent aller jusqu’à 5 ans de prison et 75 000 euros d’amende et peuvent même être portées plus loin en cas de diffusion ou lorsque ces images sont réalisées en bande organisée. Les contrevenants pourraient même être arrêtés : en février 2025, Europol arrêtait au moins 25 personnes qui diffusaient en ligne des contenus pédopornographiques générés par IA.

Quant à X, en tant que réseau social très utilisé dans l’Union européenne, il est soumis à des règles strictes au regard du Digital Services Act (DSA). De base, X doit prouver qu’il peut atténuer les « risques systémiques » dont fait partie la protection des mineurs. Le réseau social doit supprimer les contenus illicites sous 24 heures, sous peines d’amendes pouvant s’élever à 6% de son chiffre d’affaires global. Quant à xAI, qui développe Grok, là aussi des amendes (liées au chiffre d’affaires notamment) sont prévues par l’AI Act européen, s’il est démontré que son chatbot génère des contenus illégaux de manière systémique. xAI a réagi ce 2 janvier en déclarant que « Comme indiqué, nous avons identifié des défaillances dans les dispositifs de sécurité et nous les corrigeons de toute urgence. Les contenus pédopornographiques sont illégaux et strictement interdits ». Le Gouvernement a réagi dans un communiqué ce 2 janvier aux générations de contenus à caractère sexiste et sexuel de Grok sur X, sans aborder la question des contenus pédopornographiques.




