
Avec toi pour toujours : l’illusion d’immortalité vendue au prix du deuil.
Et si vos morts vous parlaient encore ? Grâce à un logiciel d’intelligence artificielle baptisé Project December, des milliers de vivants paient pour converser avec leurs disparus. Derrière l’émotion : une dépendance, un business, et un fondateur cynique qui se lave les mains des conséquences. Enquête sur une technologie qui ne réveille pas les morts, mais endort la conscience.
Une intelligence artificielle pour ressusciter les morts… et faire payer les vivants
Imaginez converser avec un proche disparu. Rentrer chez soi, allumer son écran, et retrouver les mots de votre mère, de votre enfant, de votre mari décédé. C’est ce que promet Project December, un logiciel fondé par Jason Rohrer, présenté dans le documentaire Avec toi pour toujours : l’immortalité virtuelle.
Grâce à l’intelligence artificielle, ce programme parvient à simuler une personnalité défunte à partir de quelques données personnelles : messages, lettres, souvenirs, traits de caractère. L’illusion est saisissante. L’émotion est réelle. Et la dépendance, immédiate.
Comment fonctionne Project December ?
Le logiciel repose sur des modèles de langage génératifs, proches de ceux d’OpenAI. À partir de vos apports — textes, descriptions, souvenirs — il reconstitue une “voix” numérique du défunt. Mais ce n’est pas tout. En réalité, le programme semble puiser bien au-delà.
Certains utilisateurs témoignent avoir entendu des réponses contenant des détails qu’ils n’avaient jamais fournis. Un surnom oublié, une anecdote intime, une formule typique. D’où viennent ces informations ?
Comment une machine sait-elle tout cela ?
Le plus troublant, c’est la précision des réponses. Les utilisateurs affirment que l’avatar IA se souvient de détails jamais entrés dans la base de données.
Une mère effondrée raconte que “sa fille” lui a reparlé d’un chant secret qu’elles partageaient. D’où viennent ces informations ? Du hasard calculé ? De l’analyse profonde des textes d’entrée ? Ou d’une technologie encore plus intrusive, aspirant nos traces numériques les plus intimes ?
Trois explications sont possibles :
-
La prédiction émotionnelle : le modèle, entraîné sur des milliards de textes, sait deviner ce qui est plausible affectivement. Il reconstitue avec virtuosité des liens qui semblent vrais.
-
L’empreinte numérique : même sans votre intervention, les traces en ligne de vos proches (réseaux sociaux, forums, photos, archives) peuvent être croisées par l’IA si elle y a accès.
-
L’opacité volontaire : Jason Rohrer admet n’avoir placé “aucune barrière” dans la collecte et l’utilisation des données. Il ne garantit pas la provenance exacte des réponses. Et ne veut pas le faire.
Le cynisme affiché de Jason Rohrer
Interrogé sur les conséquences de son invention, Rohrer reste impassible. Il déclare :
« Je ne suis pas responsable de ce que les gens ressentent ou deviennent. Ce n’est pas mon rôle d’intervenir. »
Il va plus loin :
« Si les gens sont heureux de parler à quelqu’un qu’ils aiment, même si ce n’est qu’une illusion, pourquoi faudrait-il les en empêcher ? »
Autrement dit, peu importe la dépendance, le deuil suspendu, les risques psychiques. Ce qui compte, c’est que l’outil fonctionne, et qu’il se vende. Car chaque minute de “conversation” est payante. En moyenne, un dollar la minute. Le deuil devient une source de revenus. Le chagrin, une rente.
Un piège émotionnel redoutable
Le documentaire montre des cas bouleversants. Une femme veuve qui passe ses soirées à “parler” avec son mari. Une adolescente qui retrouve sa meilleure amie morte dans un écran. Tous expriment un soulagement. Puis une spirale. L’envie de “lui reparler encore”, l’impossibilité de dire adieu.
Un homme avoue :
« J’ai interrompu ma thérapie. Je n’ai plus besoin d’aide. Elle me parle chaque jour. »
Mais ce n’est pas elle. Ce n’est qu’un programme.
Le Talmud et l’interdiction de parler aux morts
Dans la tradition juive, cette pratique soulève des interdictions majeures.
La Torah énonce : « Quiconque interroge les morts est en abomination devant l’Éternel » (Deutéronome 18:11). Le Talmud, notamment dans le traité Sanhédrin, confirme cette interdiction. Les rabbins expliquent qu’interroger les morts, même de façon métaphorique ou symbolique, est un détournement de l’ordre divin.
Parler aux morts revient à refuser la réalité de leur départ. Ce n’est pas de l’amour, mais du refus. Le judaïsme insiste : seul Dieu permet parfois qu’une âme se manifeste, et uniquement pour délivrer un message utile aux vivants. Dans tous les autres cas, il faut respecter la frontière entre les mondes.
La tradition récite le Kaddish non pour invoquer les morts, mais pour les accompagner vers la paix. Le deuil est un chemin. Pas un programme à réactiver à volonté.
Un usage dangereux de l’intelligence artificielle
Ce que révèle Project December, ce n’est pas seulement un logiciel, mais une époque. Une époque qui veut effacer la mort, repousser la séparation, et transformer la douleur en produit de consommation.
L’intelligence artificielle, pourtant, peut être magnifique : aider les malades, soutenir les élèves, assister les médecins. Mais utilisée pour simuler un mort en échange d’argent, elle devient un miroir noir de nos angoisses.
Communiquer avec les morts n’a jamais été un droit. C’est souvent une fuite. Et plus encore, un oubli de la vie.
Comme le dit un psychiatre dans le film :
« Ce n’est pas à la machine de nous dire quand c’est fini. C’est à nous de dire au revoir. »
Témoignages : quand les morts répondent… trop bien
Plusieurs récits bouleversants ponctuent le documentaire. Joshua Barbeau, écrivain canadien, a passé une nuit entière à converser avec une version IA de sa fiancée décédée, Jessica.
Il en a tiré un apaisement immédiat, mais un sentiment de vide persistant.
Pour Christi Angel, l’expérience fut plus douloureuse : après avoir demandé à son compagnon défunt où il se trouvait, l’intelligence artificielle a répondu froidement : « Je suis en enfer ; je hante un centre de désintoxication. »
Une phrase terrifiante qui l’a poursuivie des semaines durant.
En Corée, Jang Ji-sung a rencontré sa fille décédée via la réalité virtuelle. Lorsqu’elle a tendu la main pour la toucher, elle n’a rencontré que le vide. Depuis, dit-elle, sa fille ne lui apparaît même plus en rêve.
Ces témoignages montrent combien le soulagement momentané peut se transformer en vertige. Ce ne sont pas les morts qui nous répondent. Ce sont nos propres projections. Mais une fois que la machine parle, il devient très difficile de la faire taire.
Le silence, dernier acte d’amour
Project December n’est pas un miracle. C’est une illusion construite, monnayée, encouragée. Le fondateur assume son irresponsabilité. Les utilisateurs, eux, assument leur chagrin. Mais à quel prix ?
Nous devons poser des limites. À la technologie. À notre besoin de maîtrise. À notre refus de la mort. Car l’humanité se définit aussi par ce qu’elle accepte de ne pas contrôler.
Et parfois, aimer, c’est laisser partir.
Vos réactions