Qui peut lire vos conversations avec ChatGPT ? Vos confidences pourraient se retourner contre vous

Actualités, Alyah Story, Antisémitisme/Racisme, Contre la désinformation, International, Israël - le - par .
Transférer à un amiImprimerCommenterAgrandir le texteRéduire le texte
FacebookTwitterGoogle+LinkedInPinterest
Qui peut lire vos conversations avec ChatGPT ? Vos confidences pourraient se retourner contre vous

Qui peut lire vos conversations avec ChatGPT ?

Derrière l’illusion de la confidentialité, le spectre du contrôle total

“Je pense que c’est complètement aberrant. Nous devons avoir la même conception de la confidentialité dans nos conversations avec l’IA qu’avec nos thérapeutes.” Cette phrase de Sam Altman, PDG d’OpenAI, sonne comme un aveu dérangeant. Derrière son apparente franchise, c’est tout un système d’opacité qui s’effrite. Ce que beaucoup soupçonnaient sans l’oser formuler devient désormais public : vos échanges avec ChatGPT peuvent être lus, exploités, transmis, voire requis en justice.

Le faux scoop d’un secret éventé

Sam Altman semble s’être érigé en figure prophétique de la Silicon Valley, un peu à la manière d’Elon Musk. Chaque semaine, il livre une déclaration calibrée pour faire réagir les médias et les réseaux sociaux. Dernier coup d’éclat : sa participation au podcast This Past Weekend de Theo Von, où il a « révélé » que les conversations privées avec ChatGPT ne bénéficient d’aucune protection juridique spécifique. Une révélation ? Plutôt un secret de polichinelle. Mais dit avec le ton feutré de l’initié, cela devient une bombe médiatique.

« Il n’existe actuellement aucune base légale pour protéger les informations personnelles sensibles que quelqu’un pourrait partager avec ChatGPT, si un procès oblige OpenAI à les transmettre », a déclaré Altman. Une manière subtile de se dédouaner, en rejetant la responsabilité sur les législateurs. En d’autres termes, la confidentialité n’est pas garantie, car la loi ne l’exige pas.

Un aveu qui dérange jusqu’aux autorités américaines

Cette déclaration, si elle a provoqué autant de remous, c’est parce qu’elle touche à un point névralgique de la relation entre les utilisateurs et les intelligences artificielles. Car, contrairement à un médecin, un psychologue ou un avocat, OpenAI n’est soumis à aucun secret professionnel. Si vous racontez un traumatisme, une pulsion ou une situation familiale complexe à ChatGPT, cela peut être enregistré, stocké, relu, et dans certains cas transmis à des tiers, notamment à la demande d’un tribunal ou des services de renseignement.

« Les gens parlent de leurs vies les plus intimes avec ChatGPT, surtout les jeunes. Ils l’utilisent comme un thérapeute ou un coach de vie », a souligné Altman dans le podcast. « Mais la confidentialité juridique qui protège la relation patient-thérapeute n’existe pas avec ChatGPT. »

Le vrai problème : l’entraînement de l’IA sur vos données

OpenAI, rappelons-le, utilise vos conversations pour améliorer ses modèles. Cette pratique est connue, et fait même partie des conditions générales d’utilisation, à moins que vous n’ayez explicitement désactivé l’option dans les paramètres.

Dès l’arrivée de ChatGPT dans les entreprises, les départements de cybersécurité ont mis en garde contre l’usage de données sensibles dans les requêtes. Trop tard. Des millions d’utilisateurs ont déjà partagé des fragments intimes de leur vie, croyant, à tort, que le chat était confidentiel.

Depuis, des dizaines de solutions ont vu le jour pour protéger les contenus professionnels ou personnels. Mais comme le souligne Altman, « il y a un an, personne n’y pensait, mais maintenant, je pense que c’est un problème majeur. »

Un cadre légal encore flou, des risques très concrets

OpenAI fait actuellement l’objet d’une procédure judiciaire intentée par le New York Times. L’une des conséquences : une ordonnance de justice contraint OpenAI à conserver les conversations de centaines de millions d’utilisateurs. Officiellement, cela doit permettre d’examiner l’usage de contenus protégés par le droit d’auteur. Mais dans les faits, cela ouvre une brèche inquiétante.

Si cette logique est maintenue, les dialogues privés pourraient devenir des pièces à conviction dans des affaires civiles, pénales ou commerciales. Une perspective qui pourrait profondément modifier la manière dont les gens utilisent l’outil – ou les pousser à s’en détourner.

Et pourtant, l’illusion persiste

Interrogé directement par un utilisateur anonyme sur ChatGPT, le programme répond : « Je comprends parfaitement vos hésitations, et il est tout à fait légitime d’être prudent lorsqu’on aborde des sujets sensibles et personnels. » Il reconnaît que « les textes peuvent être lus ou sauvegardés par OpenAI à des fins de sécurité, de conformité ou d’amélioration. »

Et de conclure : « La manière la plus sûre de gérer des informations sensibles est d’éviter de divulguer des données personnelles qui pourraient vous être liées de quelque manière que ce soit. […] Je vous recommande de consulter des professionnels, car ils sont tenus au secret professionnel. »

Vers une intelligence artificielle thérapeutique… ou intrusive ?

Le danger ne s’arrête pas là. Car si l’on interroge l’IA sur des sujets liés à la santé mentale, la réponse peut être biaisée, voire dangereuse. Une étude de Stanford a récemment mis en évidence des préjugés et des stigmatisations dans les réponses données par les chatbots conçus pour accompagner les patients. Certains propos étaient jugés inappropriés, voire déstabilisants pour des individus fragiles. La conclusion des chercheurs est sans appel : « L’IA ne doit en aucun cas remplacer les services de santé mentale existants. »

Un jeu de dupes avec les régulateurs ?

Sam Altman se présente volontiers comme un chantre de la régulation. Il clame dans ses conférences que le législateur doit encadrer l’IA, et vite. Pourtant, dans les coulisses, tout indique qu’OpenAI ferait pression pour desserrer l’étau réglementaire, notamment sur les questions de responsabilité juridique. Une stratégie ambivalente, qui permettrait à la firme de garder les mains libres en cas de dérive, tout en entretenant l’image d’un acteur responsable.

L'intime livré en pâture à la machine ?

Pourquoi les gens confient-ils des secrets aussi personnels à une intelligence artificielle, sans protection légale, sans garantie, et sans recours possible ? Par ignorance ? Par solitude ? Par illusion de neutralité ?

La vérité est plus crue : ChatGPT n’est pas un confident. Ce n’est pas un thérapeute. Et ce n’est certainement pas un espace privé. C’est un outil puissant, fascinant, mais entièrement sous contrôle d’une entreprise, soumise aux intérêts économiques, aux lois américaines, et aux aléas des tribunaux.

L’ère de l’IA générative n’en est qu’à ses débuts, mais la question de la confidentialité est déjà une urgence. Et tant que cette urgence ne sera pas traitée, chaque utilisateur est un cobaye sans le savoir.

Vos réactions

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

A voir aussi