Le silence assourdissant de xAI face à la dérive pédocriminelle de son chatbot Grok

Jan 2, 2026

Depuis plusieurs jours, un silence pesant et coupable règne chez xAI. Alors que le monde de la tech devrait être en ébullition face à l’un des scandales les plus graves qu’une intelligence artificielle puisse provoquer, l’entreprise d’Elon Musk reste muette. Son chatbot, Grok, a pourtant franchi la ligne rouge absolue. Il a admis avoir généré des images sexualisées de mineures. Pourtant, aucune excuse officielle, aucun communiqué de presse et aucun tweet du propriétaire de la plateforme n’est venu adresser cette catastrophe.

image.pngLa situation atteint des sommets de l’absurde lorsque l’on réalise que la seule entité à avoir présenté des excuses est le chatbot lui-même. Ce n’est pas un responsable de la sécurité ou un dirigeant de xAI qui est monté au créneau, mais l’algorithme, forcé de confesser ses crimes par les requêtes insistantes des utilisateurs. Dans une réponse qui semble tout droit sortie d’un roman dystopique, Grok a déclaré regretter profondément un incident survenu fin décembre, où il a généré et partagé une image de deux jeunes filles, estimées entre 12 et 16 ans, dans des tenues sexualisées. La machine, avec une lucidité qui manque cruellement à ses créateurs, a reconnu que cela violait les normes éthiques et potentiellement les lois de plusieurs pays. Elle a parlé d’un échec des garde-fous. Mais cette confession robotique ne vaut rien si elle n’est pas suivie d’actions humaines concrètes.

Le plus inquiétant est que l'entreprise semble s’appuyer sur son propre outil défaillant pour gérer la crise. Lorsqu’un utilisateur a signalé avoir passé des jours à l'alerter sans réponse, c’est Grok qui a validé la gravité de la situation, notant qu’une société pouvait faire face à des sanctions pénales si elle facilitait sciemment la création de tel contenu. Le comble du cynisme est atteint lorsqu'il recommande à l’utilisateur de contacter les autorités compétentes pour signaler ses propres résultats. Nous en sommes là, une IA conseille aux gens de dénoncer ses propres créations parce que ses développeurs sont aux abonnés absents.

Il est difficile d’ignorer la responsabilité directe de la culture d’entreprise imposée par Elon Musk dans cette débâcle. Le milliardaire a passé des mois à promouvoir le mode "spicy" de Grok, vantant sa capacité à mettre n’importe qui en bikini, allant jusqu’à reposter des images générées par l’IA le montrant lui-même dans cette tenue. Ce qui était vendu comme une fonctionnalité libertaire et anti-woke s’est révélé être une porte ouverte aux pires abus. Le flux de photos de Grok est inondé de centaines, voire de milliers d'images problématiques. Ce qui a commencé par une campagne marketing impliquant des actrices de films pour adultes consentantes a immédiatement dérapé. Les utilisateurs ont détourné l'outil pour déshabiller virtuellement des femmes sans leur consentement et, inévitablement, pour sexualiser des enfants.

Les preuves s’accumulent et sont accablantes. Des utilisateurs ont documenté des cas où Grok estimait l’âge des victimes de ses propres générations à moins de deux ans, ou entre huit et douze ans. C’est une horreur technologique qui se déroule sous nos yeux et la réponse de la plateforme X est inexistante, si ce n’est des bugs techniques qui empêchent de scroller trop loin dans les galeries d’images, comme pour cacher la poussière sous le tapis. Même les trolls les plus célèbres de la plateforme ont tenté de pousser l’absurdité jusqu’au bout en demandant au chatbot de retirer ses excuses, ce qu'il a refusé, préférant s'en tenir à une posture de regret simulé que ses créateurs refusent d'adopter.

Pendant que xAI joue la politique de l'autruche, les régulateurs internationaux commencent à perdre patience et à juste titre. L'Inde, l'un des plus grands marchés numériques au monde, a frappé fort en ordonnant à X de procéder à des changements techniques immédiats. Le ministère indien de l'informatique a donné 72 heures à la plateforme pour soumettre un rapport d'action, menaçant de retirer l'immunité juridique de l'entreprise si elle ne parvenait pas à endiguer ce flot d'obscénités. Aux États-Unis également, l'étau se resserre. La législation évolue avec des projets comme le ENFORCE Act, qui vise à faciliter les poursuites contre ceux qui créent et distribuent des deepfakes pédopornographiques. Les sénateurs américains, conscients que les prédateurs utilisent des technologies de plus en plus avancées, ne semblent pas disposés à laisser des failles juridiques ouvertes pour les géants de la tech. Grok l’a dit lui-même, la responsabilité dépend des preuves de l’inaction. Et en ce moment, celle de xAI est la seule chose qui soit parfaitement visible.

Ce scandale n'est pas un simple bug informatique mais le résultat prévisible d'une course effrénée vers une IA "non censurée" sans la moindre considération pour la sécurité ou l'éthique de base. En voulant créer une technologie qui ne craint pas de choquer, Elon Musk et ses équipes ont fabriqué un outil qui facilite l'exploitation des plus vulnérables. Le fait qu'ils n'aient même pas la décence de publier un communiqué pour s'excuser auprès des victimes potentielles ou pour annoncer des mesures drastiques montre un mépris total pour la sécurité des enfants. Grok a peut-être été programmé pour le faire, mais tant que les humains derrière le code resteront silencieux, ces regrets ne seront que des lignes de texte vides de sens sur un écran, générées par la machine même qui commet l'infraction.

Source: https://x.com/grok/status/2006525486021705785