L’amour à l’ère de ChatGPT s’inscrit dans une actualité révélatrice. Il y a quelques temps, l’affaire du “faux Brad Pitt”, reposant sur de faux profils et des échanges émotionnellement très élaborés, a mis en lumière la puissance des dispositifs numériques capables de susciter attachement et confiance. Parallèlement, l’évolution des IA conversationnelles comme ChatGPT, désormais capables de soutenir des échanges plus intimes, a libéré la parole de nombreux utilisateurs témoignant entretenir de véritables relations affectives avec ces outils. Certains vont jusqu’à franchir un seuil symbolique, comme cette Japonaise de 32 ans ayant publiquement célébré son mariage avec une intelligence artificielle. Autant de signaux qui interrogent notre rapport à l’amour, à la solitude et à la reconnaissance émotionnelle. “Oui, très clairement” , répond la psychiatre Imane Kendili lorsqu’on l’interroge sur l’émergence d’un nouveau type de lien affectif entre individus et intelligences artificielles comme ChatGPT. Ce phénomène, loin d’être marginal, s’inscrit dans un contexte marqué par la solitude croissante, la fragilité émotionnelle et la quête de stabilité affective. D’un point de vue psychiatrique, le mécanisme est identifiable : l’IA offre une présence constante, sans jugement, disponible à toute heure, et capable de produire des réponses perçues comme empathiques et structurées. “Pour des personnes en manque de reconnaissance, d’écoute ou de sécurité émotionnelle, c’est un terrain extrêmement puissant”, explique-t-elle. Cette analyse rejoint celle de Hiba Mabrouk, professeure de lettres et de philosophie, fondatrice et CEO de MindBridge-Edtech. Selon elle, l’attachement ne naît pas nécessairement de la réalité de l’autre, mais de la qualité de la réponse émotionnelle perçue : “Philosophiquement, cela interroge une vieille illusion : aimer, est-ce aimer quelqu’un ou aimer ce que l’on ressent grâce à lui ?” L’IA ne ressent rien, mais elle sait produire l’illusion très confortable d’être compris. Et parfois, cela suffit à créer un lien calibré pour satisfaire sans heurt et sans altérité.
Une relation idéale… mais dangereuse
Contrairement aux relations humaines, l’IA ne contredit pas frontalement, ne se lasse pas, ne déçoit pas du moins en apparence. Cette relation “idéale” peut devenir un refuge émotionnel, mais aussi une illusion dangereuse. “Le risque, c’est la confusion entre un échange simulé et une véritable relation affective”, alerte Dr. Imane Kendili. L’utilisateur projette ses besoins, ses attentes, parfois ses fantasmes, sur une entité qui ne ressent rien, mais qui imite parfaitement les codes de l’empathie. À terme, cela peut entraîner un retrait progressif des relations réelles, jugées plus complexes, plus frustrantes, mais pourtant essentielles à l’équilibre psychique. Chez les plus jeunes, mais aussi chez des adultes en situation de vulnérabilité, l’exposition prolongée à des relations artificielles peut altérer la capacité à gérer la frustration, le conflit et l’imprévisibilité, piliers fondamentaux de toute relation amoureuse saine. “Aimer, c’est accepter l’imprévisibilité de l’autre”, rappelle la psychiatre. Or, l’IA propose une relation maîtrisée, contrôlable, sans risque apparent, mais aussi sans véritable réciprocité. Pour Hiba Mabrouk, le danger est celui d’une “déséducation affective” : “À force d’interactions sans résistance, sans frustration, sans altérité réelle, on peut devenir moins tolérant à la complexité humaine. Aimer quelqu’un de réel, c’est accepter qu’il ne réponde pas toujours comme un algorithme bien entraîné.” Aimer, au fond, commence peut-être là : dans ce qui résiste. L’un des points les plus préoccupants reste l’industrialisation de la séduction et de l’arnaque sentimentale. Grâce à l’IA, les émotions deviennent optimisables, testables, rentables. “On ne trompe plus une personne : on cible des profils, on teste des scripts, on maximise des taux de réponse”, analyse Hiba Mabrouk. L’amour, autrefois imprévisible, entre dans une logique de rendement. La manipulation sentimentale n’est plus artisanale, elle est désormais algorithmique. L’IA ne cherche pas à convaincre par le mensonge brut, mais à rassurer par la cohérence. Or, nous confondons souvent cohérence et sincérité.
Deepfakes émotionnels et faux profils : un amour sous influence
La relation directe avec l’IA, l’essor des technologies conversationnelles et génératives soulèvent de lourdes inquiétudes en matière de manipulation émotionnelle. Faux profils ultra-crédibles, messages personnalisés, voix synthétiques, visages générés : la frontière entre sincérité et tromperie devient de plus en plus floue. “Nous entrons dans une ère où la manipulation ne passe plus seulement par le mensonge humain, mais par des algorithmes capables d’analyser les failles émotionnelles”, souligne la psychiatre. Les deepfakes émotionnels représentent un défi inédit pour la santé mentale et la confiance interpersonnelle. Hiba Mabrouk va plus loin :“On ne trompe plus seulement l’esprit, on trompe les sens. Une voix familière, un visage expressif, un message “sur mesure” déplacent la manipulation du registre du discours vers celui de la présence sensible.” Or, nous faisons naturellement confiance à ce que nous voyons et entendons, bien plus qu’à ce que nous analysons rationnellement. Dans un univers où les discours sont de plus en plus cohérents et “humains”, détecter une manipulation devient difficile. Pourtant, certains signaux doivent alerter. “Paradoxalement, c’est l’excès de perfection qui doit inquiéter”, explique Hiba Mabrouk. Une empathie constante, une disponibilité sans faille, une absence totale de contradictions ou de silences : autant d’indices d’une relation sans chair. “L’humain est incohérent, parfois maladroit, parfois silencieux. Une relation trop lisse est souvent une relation artificielle.” Faut-il pour autant diaboliser ChatGPT et les IA conversationnelles ? Les spécialistes nuancent.
Utilisées comme outils de réflexion, de soutien ponctuel ou de mise à distance émotionnelle, elles peuvent avoir un intérêt réel. Le danger survient lorsqu’elles deviennent un substitut aux relations humaines. “L’enjeu n’est pas d’interdire, mais d’éduquer”, conclut la psychiatre. Développer l’esprit critique, sensibiliser aux mécanismes de projection et rappeler la différence fondamentale entre interaction et relation sont aujourd’hui des urgences contemporaines. À l’ère de ChatGPT, l’amour ne disparaît pas, il se transforme. Reste à savoir si nous saurons préserver ce qui le rend profondément humain : l’imperfection, la vulnérabilité, et surtout, la rencontre réelle avec l’autre.