Scandale ChatGPT : des milliers de conversations privées exposées sur Google

Actualités, Alyah Story, High-Tech, International - le - par .
Transférer à un amiImprimerCommenterAgrandir le texteRéduire le texte
FacebookTwitterGoogle+LinkedInPinterest
 Scandale ChatGPT : des milliers de conversations privées exposées sur Google

Le cauchemar devenu réalité : des milliers de conversations privées ChatGPT exposées sur Google

Dans un incident alarmant révélé début août 2025, des utilisateurs ont découvert que leurs conversations personnelles avec ChatGPT étaient accessibles via une simple recherche Google. Des milliers de discussions, parfois profondément intimes, étaient indexées malgré des promesses de confidentialité. OpenAI a retiré l’option incriminée, mais les dégâts sont déjà colossaux  .

 Le mécanisme tragique : un partage mal expliqué

OpenAI avait discrètement introduit une nouvelle fonctionnalité permettant aux utilisateurs de générer un lien de partage d’une conversation, censément destinée à un cercle limité. Lors de ce partage, une case intitulée « Make this chat discoverable » (rendre visible la conversation) pouvait être cochée.
Son explication, écrite en tout petits caractères, évoquait vaguement que le chat pourrait apparaître dans les résultats des moteurs de recherche. Ce fût suffisant pour que l’outil devienne un véritable risque de fuite de données personnelles  .

 Données sensibles rendues publiques : révélations de Fast Company

Une enquête de Fast Company a permis de localiser près de 4 500 conversations indexées sur Google via une recherche ciblée (site:chatgpt.com/share).
Nombre d’entre elles contenaient des informations sensibles : anxiété, addictions, abus, drames relationnels, mais aussi coordonnées, noms, lieux ou projets professionnels, révélant indirectement l’identité des utilisateurs  .

 Les réactions : OpenAI déploie un nettoyage précipité

Face à la réaction publique, OpenAI a rapidement supprimé la case “rendre visible”, qualifiant l’expérience de « short‑lived experiment » (expérience de courte durée) visant à promouvoir des conversations jugées utiles. Le chef de la sécurité, Dane Stuckey, a reconnu : « too many opportunities for folks to accidentally share things they didn’t intend to »  . L’entreprise collabore désormais avec Google, Bing, DuckDuckGo et autres moteurs pour retirer les contenus indexés, bien que des versions en cache puissent persister plusieurs jours  .

 Conséquences juridiques sous pression américaine

Alors même qu’OpenAI célèbre la suppression du partage public, une obligation judiciaire américaine l’oblige à conserver indéfiniment tous les journaux de chat. Une plainte du New York Times concernant l’utilisation d’informations protégées a suspendu la destruction habituelle des historiques, rendant ces conversations accessibles aux équipes juridiques internes d’OpenAI, en attendant le verdict final  .

Au‑delà des utilisateurs privés : risques pour les professionnels et entreprises

L’incident inquiète également dans le secteur professionnel. En 2023, certains employés de Samsung ont accidentellement exposé des données internes en utilisant ChatGPT pour générer du code ou des compte‑rendus de réunions. Cette fuite involontaire de secrets commerciaux rappelle que les outils d’IA peuvent devenir des vecteurs de fuite s’ils sont mal utilisés  .

 Précautions à adopter : éviter un nouveau désastre

Conseils concrets et immédiats :

  • N’utilisez jamais la fonctionnalité de partage interne sans vérifier soigneusement les paramètres. Une erreur a suffi à exposer des milliers de personnes.

  • Si vous avez déjà partagé un chat, rendez‑vous dans votre espace Shared Links pour supprimer tous les liens publics non souhaités.

  • Utilisez l’opérateur site:chatgpt.com/share combiné à un mot‑clé personnel pour vérifier ce qui a été indexé.

  • Même après suppression, activez l’outil de suppression de contenu obsolète de Google pour accélérer l’élimination des pages en cache  .

Une leçon majeure de gouvernance de l’IA

Ce fiasco souligne l’urgence pour les plateformes d’IA de repenser leur transparence et leur émancipation vers l’utilisateur. Comme le souligne une analyste éthique, Carissa Véliz : « Tech companies use the general population as guinea pigs » — une leçon à la dure pour OpenAI et ses homologues  . Cette affaire s’ajoute à d’autres alertes, comme la vulnérabilité des GPT personnalisés, potentiellement exploités pour extraire des données privées sans protection robuste  .

So ce que vous avez discuté avec ChatGPT vous tient à cœur, alias sécurité mentale ou projet stratégique, il est impératif de cesser tout partage via la plateforme et d’envisager d’autres méthodes protégées comme les captures d’écran privées ou les transferts manuels. L’illusion de confidentialité peut se briser en un simple clic.

Vos réactions

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

A voir aussi