Des faux enfants morts : Gaza, la nouvelle arme de l’intelligence artificielle

Actualités, Alyah Story, Antisémitisme/Racisme, Contre la désinformation, International, Israël - le - par .
Transférer à un amiImprimerCommenterAgrandir le texteRéduire le texte
FacebookTwitterGoogle+LinkedInPinterest
Des faux enfants morts : Gaza, la nouvelle arme de l’intelligence artificielle

Enfants tués à Gaza : quand l’intelligence artificielle s’invite dans la guerre des images.

Alors que le monde entier s’indigne face à des images d’enfants prétendument tués à Gaza, une autre vérité émerge, bien plus troublante : certaines de ces photos bouleversantes sont en réalité des créations de l’intelligence artificielle. Entre manipulation émotionnelle et désinformation virale, Israël affronte un front nouveau et insidieux : celui d’une guerre de l’image où la frontière entre réel et fiction disparaît.

Une tragédie humaine détournée par des outils numériques

Alors que les combats font rage à Gaza, un autre front s’intensifie chaque jour : celui de la propagande numérique. Les images, les récits, les émotions ne sont plus seulement transmis par les caméras ou les témoins, mais aussi — et de plus en plus — par l’intelligence artificielle.

Des millions de personnes à travers le monde ont vu défiler sur leurs écrans les visages de prétendus enfants tués, les pleurs de mères éplorées, les sacs mortuaires tenus dans des bras tremblants. Sauf que ces scènes déchirantes sont, pour partie, fabriquées de toutes pièces.

« Pendant que nos soldats se battent à Gaza, en ligne, nous nous battons pour l’esprit des internautes », résume un responsable israélien.
L’épisode le plus marquant de cette guerre de l’image concerne la mort présumée de neuf enfants d’un médecin palestinien, Alaa al-Najjar, tués à Khan Younès lors d’une frappe israélienne. Si la tragédie est avérée, son illustration visuelle a été largement manipulée par des images générées par IA, rendant la frontière entre vérité et fiction plus floue que jamais.

L’IA, nouvel acteur de la guerre psychologique

Les clichés en question circulent avec force sur les réseaux sociaux. L’une des images les plus virales montre une femme étreignant plusieurs sacs mortuaires. Mais rien ne permet d’identifier ni la femme, ni ce que contiennent réellement les sacs.
« Ce qui relie l’histoire à la photo, ce sont uniquement les légendes données par les internautes », explique Tal Hagan, chercheur au sein du projet Fake Reporter. Après analyse, il a pu confirmer que l’image avait été générée par intelligence artificielle.

Dans une autre image, une femme pleure sur des corps alignés dans des sacs blancs. Là encore, les visages figés et stéréotypés trahissent la main d’un générateur IA.
Le plus troublant : la photo de famille jointe à cette mise en scène n’a rien à voir avec les enfants d’al-Najjar. Il s’agit, en réalité, d’un autre drame, celui de la famille Abu Daka, tuée en mars 2025 lors d’une autre frappe israélienne.

La confusion, carburant de la désinformation

Tal Hagan détaille sa méthode : « J’ai vu la vidéo des corps et des funérailles de Gaza. Elles ne ressemblent en rien aux images virales. J’ai utilisé Google Lens, cherché les crédits des images, sans trouver d’origine fiable. Les deux photos de la ‘mère’ avec les ‘enfants’ sont si proches qu’il est évident qu’elles viennent du même générateur. »

Le chercheur ne dédouane pas non plus les excès du camp pro-israélien. Ainsi, une image bouleversante d’une fillette amputée, pleurant après une frappe, a été déclarée fausse par certains internautes israéliens après consultation de Grok ou ChatGPT. À tort. « La photo est bien réelle, c’est Reef Saad, une enfant blessée en septembre 2024 », précise Hagan. Une campagne de financement participatif avait même été lancée pour lui offrir des prothèses, et la petite fille a rencontré la célèbre Miss Rachel, star des enfants sur YouTube, mobilisée pour Gaza.

Quand l’IA devient une arme sans éthique

Cette guerre cognitive prend une ampleur nouvelle. « L’IA est de plus en plus accessible. N’importe qui peut l’utiliser sans aucune régulation. Il n’existe même pas d’obligation de signaler qu’une image a été générée par une IA », s’inquiète Hagan.
Et d’ajouter : « Il est de notre devoir d’apprendre aux enfants et aux adultes à identifier ces contenus, et d’exiger des garde-fous. Sinon, nous ne saurons bientôt plus distinguer le vrai du faux. »

L’emballement médiatique joue aussi son rôle. Les journalistes, sous pression de publier vite et avec impact, accompagnent parfois leurs articles de visuels générés sans vérification. « Une image d’IA attire plus de clics. Mais très vite, elle est perçue comme authentique, et l’événement qu’elle illustre, pourtant réel, devient douteux par contamination. » Une forme de sabotage narratif qui rend toute vérité suspecte.

Une guerre qui ne dit pas son nom

La mort des enfants d’al-Najjar, qu’elle soit confirmée ou en cours d’enquête, mériterait un traitement digne, respectueux des faits et des victimes. Mais dans le chaos de l’information, où l’émotion surpasse la vérification, cette douleur devient un outil. Les enfants deviennent des armes. Et les algorithmes, des faussaires de la réalité.

Ce glissement, insidieux, nous engage tous. Car si Israël se bat militairement sur le terrain, la guerre des images, elle, se joue dans chaque téléphone, chaque fil d’actualité, chaque émotion provoquée. La vérité, aujourd’hui, est devenue une denrée fragile, instable, manipulable. Et l’intelligence artificielle, un acteur discret mais terriblement efficace de cette bataille invisible.

 

Vos réactions

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

A voir aussi