Livraisons fantômes et images truquées : l’alerte venue des États-Unis qui concerne aussi Israël

Actualités, Alyah Story, Antisémitisme/Racisme, Contre la désinformation, International, Israël - le - par .
Transférer à un amiImprimerCommenterAgrandir le texteRéduire le texte
FacebookTwitterGoogle+LinkedInPinterest
Livraisons fantômes et images truquées : l’alerte venue des États-Unis qui concerne aussi Israël

Livraisons fantômes : quand l’intelligence artificielle devient un outil de fraude

L’affaire s’est déroulée aux États-Unis, à Austin, au Texas. Un livreur de la plateforme américaine DoorDash y a utilisé une image générée par intelligence artificielle pour faire croire à une livraison qui n’a jamais eu lieu. Si l’incident est géographiquement éloigné d’Israël, il concerne pourtant directement le pays : DoorDash est la maison mère de Wolt, acteur central de la livraison en Israël.
Dans un État ultra-numérisé, pionnier de l’intelligence artificielle, cette fraude américaine éclaire les failles potentielles d’un modèle technologique déjà largement adopté localement.

Une arnaque révélée par une simple photo

L’intelligence artificielle ne sert plus seulement à optimiser les services ou à améliorer l’expérience utilisateur.
Elle devient aussi, de plus en plus, un outil de fraude, y compris dans des secteurs du quotidien comme la livraison de repas. Aux États-Unis, un livreur de la plateforme DoorDash a récemment été exclu après avoir utilisé une image générée par IA pour faire croire à une livraison qui n’a jamais eu lieu.

L’affaire a éclaté fin décembre à Austin, au Texas. Un client, attendant sa commande, reçoit une notification de livraison accompagnée d’une photo censée prouver que le repas a été déposé devant sa porte. Problème : la livraison n’est jamais arrivée.

Une image trop parfaite pour être vraie

Intrigué, le client examine la photographie envoyée par le livreur. Rapidement, il constate des incohérences visuelles. L’image semble artificielle, trop lisse, trop générique, sans les détails spécifiques de son domicile. Convaincu qu’il s’agit d’une manipulation, il partage la capture d’écran sur le réseau social X, déclenchant une vague de réactions.

Selon ses explications, le livreur aurait utilisé une image générée par intelligence artificielle pour valider frauduleusement la livraison, marquant la commande comme « effectuée » afin d’en percevoir le paiement, sans jamais se rendre sur place. Une pratique rendue possible par la confiance accordée aux preuves visuelles dans les systèmes automatisés des plateformes.

Une réponse rapide mais révélatrice de DoorDash

Contactée, DoorDash n’a pas contesté les faits. L’entreprise a confirmé avoir désactivé définitivement le compte du livreur concerné. Dans un communiqué, la plateforme affirme appliquer une politique de tolérance zéro face à la fraude et combiner des outils technologiques avec des contrôles humains pour détecter les abus.

Le client lésé a été intégralement remboursé et a reçu un crédit commercial en compensation. Sa commande – un bol de poké – lui a finalement été livrée ultérieurement par un autre chauffeur. Un dénouement sans gravité apparente, mais révélateur d’un problème bien plus large.

L’IA, nouveau maillon faible des plateformes

Cet incident illustre une dérive préoccupante : la capacité de l’IA à produire des preuves crédibles, suffisamment réalistes pour tromper des systèmes automatisés et, parfois, des opérateurs humains. Dans un environnement où des millions de livraisons sont traitées chaque jour, la vérification individuelle devient complexe, ouvrant la porte à des abus ciblés mais répétés.

Les spécialistes soulignent que ce type de fraude n’est probablement que la partie émergée de l’iceberg. À mesure que les outils de génération d’images deviennent accessibles, rapides et gratuits, leur utilisation à des fins malveillantes risque de se banaliser.

Une fraude qui ne concerne pas que les livreurs

Le phénomène ne se limite pas aux chauffeurs indélicats. Les plateformes de livraison reconnaissent également une augmentation des fraudes côté clients. Certains consommateurs utilisent des images retouchées ou générées pour faire croire à des plats manquants, endommagés ou non conformes, dans le but d’obtenir des remboursements injustifiés.

L’intelligence artificielle devient ainsi une arme à double tranchant, exploitée aussi bien par des prestataires que par des utilisateurs, mettant les plateformes face à un défi inédit : comment continuer à automatiser sans sacrifier la fiabilité ?

Un avertissement pour l’économie du numérique

Au-delà de l’anecdote, cette affaire pose une question centrale pour l’économie numérique : comment maintenir la confiance dans un monde où les preuves visuelles ne sont plus nécessairement réelles ? Les plateformes devront sans doute renforcer leurs mécanismes de vérification, croiser davantage de données et repenser la place accordée aux images comme preuves irréfutables.

Car si une simple photo générée par IA suffit à valider une livraison fantôme aujourd’hui, demain, ce sont d’autres secteurs – assurance, logistique, services publics – qui pourraient être confrontés aux mêmes dérives.

Vos réactions

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

A voir aussi