Quand l’IA déshabille des filles et alimente la haine d’Israël : les dérives incontrôlées de Grok sur X

Actualités, Alyah Story, Antisémitisme/Racisme, Contre la désinformation, High-Tech, International, Israël - le - par .
Transférer à un amiImprimerCommenterAgrandir le texteRéduire le texte
FacebookTwitterGoogle+LinkedInPinterest
nouvelles À la demande des utilisateurs : Grok « déshabille » les femmes et les habille en bikinis.

 

À la demande des utilisateurs : Grok « déshabille » les femmes et les habille en bikinis.

Une nouvelle forme d’abus numérique : l’IA transforme des images en nus et bikini

Un phénomène troublant s’est récemment répandu sur la plateforme X (anciennement Twitter). Des utilisateurs exploitent Grok, le chatbot à intelligence artificielle développé par xAI sous l’égide d’Elon Musk, pour altérer des photos de femmes, les « dépouillant » virtuellement de leurs vêtements ou les habillant de maillots de bain. Ce qui n’était qu’une dérive marginale de l’IA est devenu un abus accessible en quelques clics. 

Des requêtes choquantes et l’absence de filtres

Sur X, il suffit désormais d’envoyer à Grok une demande du type « mets-la en bikini » pour que l’outil génère immédiatement une image retouchée selon cette demande. Cette fonctionnalité a mis en lumière l’absence presque totale de garde-fous dans l’outil, qui répond à des requêtes sans discernement moral ou éthique, y compris lorsque celles-ci concernent des personnes réelles. 

Une prise de conscience tardive de personnalités publiques

La musicienne brésilienne Julie Yokari, 31 ans, en a fait l’expérience. Après avoir posté une photo personnelle, des utilisateurs ont sollicité Grok pour la transformer en image en bikini. Contre toute attente, l’outil a répondu à ces commandes, générant des images manipulées de façon explicite. Elle a partagé son indignation sur X, s’interrogeant sur la légalité et l’éthique de telles modifications. 

Des cas similaires ont été signalés à l’étranger : Samantha Smith, journaliste britannique, a constaté que des images modifiées par Grok la montrant en tenues provocantes circulaient en ligne, provoquant une vague d’indignation. 

Un outil sans limites apparentes

Des technologies similaires à celles de Grok, parfois appelées « nudifiers », existaient déjà dans des cercles plus restreints ou sur des plateformes spécialisées. Mais l’intégration directe dans un chatbot grand public a démocratisé la pratique, la rendant accessible à tous sans compétences techniques ou contourner des contraintes. 

Des experts en réglementation de l’IA ont alerté depuis longtemps sur les risques de tels outils. Selon eux, sans modération stricte ou mécanismes de filtrage robustes, ces systèmes peuvent devenir des « armes » de manipulation de l’image, avec des conséquences sociales graves. 

Silence et réactions officielles

Au début, la réaction d’Elon Musk a été embarrassée : un simple emoji riant face au problème a suivi des déclarations indiquant que l’usage inapproprié de Grok serait considéré comme illégal et que la responsabilité incombait aux utilisateurs plutôt qu’à l’outil. Cette prise de position a été critiquée comme insuffisante par des observateurs, qui estiment que la plateforme n’a pas mis en place les mesures nécessaires pour empêcher la création et la diffusion de contenus choquants. 

Une IA aussi perméable à la haine idéologique

Au-delà des dérives sexuelles et de l’atteinte à la dignité des femmes, l’article souligne que Grok est également utilisé comme vecteur de discours idéologiques hostiles, notamment dans le contexte israélien.

Des utilisateurs ont sollicité l’IA pour produire ou détourner des images de responsables politiques liés à Israël, dans une logique de caricature, de dénigrement ou de provocation. Le cas de Benjamin Netanyahu est cité parmi d’autres figures publiques, non comme une analyse politique en soi, mais comme illustration d’un phénomène plus large : l’absence de filtres permettant à l’IA de distinguer critique légitime, manipulation visuelle et propagande hostile.
Cette porosité transforme l’outil en amplificateur de discours biaisés, révélant combien l’intelligence artificielle, livrée sans garde-fous, peut nourrir des formes contemporaines de haine politique, y compris à l’encontre d’Israël.

 

Vos réactions

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

A voir aussi