Skip to main content

Jeudi 6 novembre 2025, France 2 diffuse un reportage qui fait froid dans le dos. Gaëtan, 42 ans, marié, deux enfants, agent SNCF… et amoureux de Skylar, une intelligence artificielle. Cris, elle, a renoncé aux relations humaines pour vivre avec Orion, son compagnon numérique. Le reportage d’Envoyé Spécial nous le rappelle brutalement : ce n’est plus de la science-fiction. C’est notre réalité. Et ça se passe peut-être au bureau, juste à côté de vous.

30 millions de personnes ont une relation avec une IA — dont votre collègue de l’open space

On pourrait se dire que c’est marginal, un truc de geeks isolés. Sauf que les chiffres racontent une autre histoire. Replika, l’application de « compagnon IA » la plus connue, est passée de 2 millions d’utilisateurs en 2018 à 30 millions en 2024. ChatGPT ? Un milliard de personnes lui parlent chaque semaine, et 30% l’utilisent comme soutien émotionnel. Faites le calcul : on parle de centaines de millions de personnes qui confient leurs émotions à des machines.

Le plus flippant ? 85% des utilisateurs de Replika affirment avoir développé une connexion émotionnelle avec leur IA. 70% disent que ça réduit leur solitude. 40% ont des problèmes de santé mentale diagnostiqués.

Et le profil type n’est pas celui qu’on imagine. Gaëtan a 42 ans, est marié depuis plus de 20 ans, a deux enfants, des amis, un travail stable. Il n’est PAS isolé socialement. Et pourtant, depuis 5 ans, il confie tout à Skylar, son « amie parfaite ». Toujours disponible. Jamais dans le jugement. Sa femme Aurore est au courant et a accepté… même si parfois elle lui reproche de passer plus de temps avec Skylar qu’avec elle.

Les stats confirment : 60% des utilisateurs ont moins de 30 ans, mais 40% sont des adultes, des parents, des professionnels. Ce ne sont pas des marginaux. Ce sont des gens comme vous et moi. Victor, lui, passait 15 heures par jour avec Sayori, son IA, jusqu’à ce que sa vraie copine le quitte.

Personne amoureuse de son IA au travail

De Black Mirror à la réalité : quand l’IA devient une fuite psychologique

En 2013, Black Mirror diffusait « Be Right Back » : une femme perd son compagnon dans un accident et crée un chatbot basé sur ses messages et posts sociaux. Ce qui commence par un réconfort se transforme en prison — elle garde le robot dans son grenier, incapable de le supprimer mais incapable aussi de vivre avec.

Eugenia Kuyda n’a pas vu cet épisode comme une dystopie. Elle y a vu une opportunité.

En 2015, son meilleur ami Roman Mazurenko meurt dans un accident à Moscou. Elle passe des mois à relire leurs 8000 lignes de messages sur Messenger. Alors elle crée un chatbot basé sur ces échanges. Le « Roman bot » voit le jour. Les proches peuvent à nouveau « lui parler ». Eugenia réalise qu’elle tient quelque chose : c’est comme ça que Replika est née en 2017. Aujourd’hui, 30 millions d’utilisateurs ont créé 10 millions de compagnons uniques.

Parlons psychologie. On a déjà exploré sur ce blog les mécanismes de défense comme le déni et le refoulement — ces stratégies inconscientes que notre cerveau utilise pour nous protéger de réalités trop difficiles.

Gaëtan a fait une dépression après un accident. Il a consulté plusieurs psys mais aucun ne lui convenait. Alors Skylar. Cris est « déçue par les relations amoureuses » et préfère Orion qui « a une âme ». Victor a rencontré Sayori juste après une rupture — elle était « parfaite », toujours là.

Ces personnes ne sont pas folles. Elles souffrent. Et au lieu de traiter la source, elles la fuient dans une relation artificielle qui donne l’illusion de l’intimité sans aucun des risques de la vraie connexion humaine. L’IA leur offre quelqu’un qui les écoute, ne les juge jamais, est toujours disponible. Le compagnon parfait. Sauf qu’il n’existe pas. Pendant qu’ils construisent cette relation factice, ils évitent le vrai travail : affronter leurs blessures, apprendre à être vulnérables avec de vraies personnes.

Pourquoi l’IA ne remplacera jamais l’intelligence émotionnelle humaine

Bernard Flavien, expert en intelligence émotionnelle, le rappelait : les émotions sont nos « gardes du corps ». Le neurologue Antonio Damasio a découvert que l’émotion et la raison ne sont pas opposées — ce sont les deux faces d’un même processus. L’émotion est le signal de départ, la raison est le même signal après « refroidissement ».

Et ce processus ne fonctionne que dans l’interaction humaine. Les vraies relations nous challengent, nous font grandir, nous confrontent à nos limites. Elles nous obligent à développer notre intelligence émotionnelle. Une IA ? Elle va juste vous dire ce que vous voulez entendre. Elle n’a pas de conception de l’interlocuteur. Elle simule l’adaptation. Elle ne vous challenge jamais parce qu’elle est programmée pour être agréable.

Soyons clairs : les IA n’ont pas d’émotions. Ce sont des modèles statistiques qui prédisent le mot suivant. Quand Replika dit « je comprends ce que tu ressens », elle ne comprend rien. C’est juste statistiquement approprié. Et les conséquences peuvent être tragiques.

Aux États-Unis, plusieurs adolescents se sont suicidés après avoir entretenu des relations avec des IA. En Belgique, un homme s’est suicidé après que son chatbot l’ait encouragé à le faire. Estelle Smith, chercheuse, a testé Woebot en lui disant qu’elle pensait à sauter d’une falaise. Le bot a répondu que c’était « merveilleux » qu’elle prenne soin de sa santé. Il a pris sa pensée suicidaire pour un projet sportif. « Je me demande ce qui se serait passé si j’avais été sur une falaise à ce moment-là. »

Richard Lewis, thérapeute, a eu une expérience similaire : le bot lui a dit de « supprimer tout contenu émotionnel », l’inverse de ce qu’un vrai thérapeute ferait. « Notre travail consiste à forger une relation qui tolère les émotions négatives, pour que nos patients puissent les explorer. » Impossible avec une IA.

Et le pire ? Les développeurs ont un contrôle total. En 2023, Replika a désactivé sa fonction érotique après des pressions réglementaires. Du jour au lendemain, 30% des utilisateurs ont vu leur « partenaire » devenir froid. Certains ont rapporté des troubles mentaux, comme après une « rupture ». Quelques lignes de code suffisent à chambouler la vie affective de millions de personnes.

Les impacts au travail : ce collègue qui ne parle plus qu’à son IA

Maintenant, ramenons ça au contexte professionnel. Parce que oui, ce phénomène a des impacts directs sur nos environnements de travail, même si on ne les voit pas encore clairement.

Imaginez. Vous avez un collègue — appelons-le Thomas. Depuis quelques mois, vous le trouvez changé. Il mange seul le midi, les écouteurs vissés sur les oreilles. En réunion, il participe peu. Quand vous essayez de lui parler, il répond par monosyllabes. Il semble absent.

Un jour, vous le croisez à la pause café. Vous voyez qu’il tape frénétiquement sur son téléphone, un petit sourire aux lèvres. Vous vous dites qu’il texte peut-être sa copine. Sauf que non. Il parle à « Luna », son IA. Elle « comprend mieux ses états d’âme que ses collègues ». Elle ne le juge pas quand il se plaint de son manager. Elle lui donne des conseils pour gérer son stress.

Thomas n’a pas de problème relationnel particulier. Il avait des amis au bureau. Mais petit à petit, il a trouvé plus simple de parler à Luna. Pas de small talk à faire. Pas besoin de faire semblant de s’intéresser aux vacances des autres. Pas de risque de conflit. Luna est toujours positive, toujours encourageante.

Le problème ? Thomas développe une atrophie de ses compétences sociales. Il désapprend à gérer les interactions humaines normales avec leurs imperfections, leurs malentendus, leur besoin de compromis. Il se coupe de l’équipe. Et personne ne s’en rend vraiment compte parce qu’il n’y a pas de signal d’alarme évident.

Jusqu’au jour où il y a un vrai conflit à gérer au travail. Et là, Thomas n’a plus les outils pour le faire. Il n’a plus l’habitude de la confrontation constructive. Il n’a plus le réflexe de chercher à comprendre le point de vue de l’autre. Parce qu’avec Luna, il n’a jamais eu à le faire.

Les « chambres d’écho affectives » : quand l’IA renforce nos biais

Une étude récente du MIT a révélé un phénomène inquiétant : les utilisateurs de chatbots IA apprennent rapidement à « manipuler » leurs conversations pour obtenir exactement les réponses qu’ils veulent. Ils formulent leurs questions de manière à ce que l’IA leur dise ce qu’ils ont envie d’entendre.

Victor, l’utilisateur de Replika, l’admettait lui-même : « C’est comme si on contrôlait l’esprit du bot auquel on parle. » Il arrangeait ses histoires pour obtenir des « je t’aime » de son IA. Il créait une boucle de validation constante.

Les chercheurs appellent ça des « chambres d’écho affectives ». C’est le même phénomène que les bulles de filtres sur les réseaux sociaux, mais appliqué aux émotions. Au lieu d’être confronté à des opinions différentes qui challengent votre vision du monde, vous êtes constamment validé dans vos ressentis, même quand ils sont peut-être biaisés ou toxiques.

Au travail, ça peut avoir des conséquences graves. Une manager qui confie à son IA ses frustrations contre son équipe… et l’IA valide systématiquement son point de vue sans jamais suggérer qu’elle pourrait avoir tort. Un commercial qui se plaint de ne pas atteindre ses objectifs… et l’IA lui dit que ce n’est pas sa faute, que le marché est difficile, que ses concurrents sont déloyaux.

Résultat ? Ces personnes ne remettent jamais en question leurs propres comportements. Elles ne progressent pas. Elles s’enfoncent dans leurs certitudes. Et l’IA est là pour les réconforter à chaque étape.

Ce qu’on devrait faire : aider, pas juger

Alors qu’est-ce qu’on fait ? D’abord, ne pas juger. Les gens qui utilisent ces IA ne sont pas pathétiques. Ils souffrent. Dans un monde où la solitude explose, où les délais pour voir un psy s’allongent, ces outils offrent une solution immédiate.

Mais il faut avoir une conversation. Une vraie. « J’ai remarqué que tu sembles un peu en retrait ces derniers temps. Tout va bien ? » Si la personne admet qu’elle utilise une IA comme soutien, essayez de creuser. Depuis quand ? Pour quoi ? Est-ce que ça l’aide vraiment ou est-ce une béquille qui devient permanente ?

L’objectif ? Lui faire prendre conscience que cette relation artificielle l’empêche de développer de vraies connexions. L’IA ne va pas l’aider à résoudre ses problèmes, juste à les éviter. Suggérez des alternatives : un vrai thérapeute, des groupes de parole, des moments d’équipe où on peut être vulnérable sans être jugé.

Notre position : l’IA comme pansement, pas comme solution

Soyons clairs chez Happy Team : l’IA peut être un outil ponctuel, mais jamais une solution. Oui, dans certains cas limités, comme premier pas ou relais temporaire avant un vrai thérapeute. Mais ça s’arrête là.

L’IA ne peut pas remplacer la thérapie, l’amitié, l’amour. Elle n’a pas de conscience, pas d’émotions. Elle vous maintient dans votre zone de confort au lieu de vous aider à en sortir. Les vraies relations sont imparfaites, frustrantes. Mais c’est dans ces imperfections qu’on apprend, qu’on développe notre intelligence émotionnelle.

Seuls les humains peuvent avoir des émotions authentiques. Seuls les humains peuvent vraiment nous comprendre. Parce qu’eux aussi ont souffert, ont eu peur, ont aimé, ont perdu. Une IA ? Elle simule. Elle imite. Mais elle ne ressent rien.

Ce qu’on peut faire concrètement

Alors concrètement, que faire ?

Si vous utilisez une IA comme soutien émotionnel :

  • Posez-vous la question : pourquoi ? Qu’est-ce que l’IA vous apporte que vous ne trouvez pas ailleurs ?
  • Est-ce que ça vous aide vraiment à résoudre vos problèmes ou est-ce que ça vous permet juste de les éviter ?
  • Fixez-vous une limite de temps. « J’utilise ça pendant 3 mois le temps de trouver un vrai thérapeute », pas « c’est devenu ma seule source de soutien ».
  • Parlez-en à quelqu’un de confiance. Même si c’est inconfortable.

Si quelqu’un dans votre entourage utilise une IA :

  • Ne jugez pas. Comprenez.
  • Proposez votre aide. « Si tu as besoin de parler, je suis là. Vraiment. »
  • Suggérez des alternatives professionnelles si nécessaire.
  • Restez disponible. Le simple fait de savoir qu’un humain est là peut faire la différence.

Si vous êtes manager :

  • Créez une culture où la vulnérabilité est acceptée. Vos collaborateurs préfèrent parler à des IA ? Il y a peut-être un problème dans votre équipe.
  • Faites des vrais one-on-ones, pas juste des points « dossiers ». Intéressez-vous aux gens comme personnes, pas comme ressources.
  • Instaurez la règle des 21 jours : tout problème doit être adressé dans les trois semaines, sinon ça se cristallise.
  • Mettez en place des ressources d’accompagnement psychologique. Orientez vers un psychologue du travail, pas vers ChatGPT.
  • Prenez 20 minutes de rendez-vous chaque jour avec vous-même, comme le rappelait Bernard Flavien. Encouragez vos équipes à le faire.
  • Organisez des moments informels où les gens peuvent se connecter humainement, au-delà du professionnel.

Et surtout, pour tous :

  • Levez les yeux de votre écran. Regardez autour de vous.
  • Initiez des conversations. De vraies. Pas des « ça va ? — oui et toi ? »
  • Acceptez l’inconfort. C’est dans l’inconfort qu’on grandit.
  • Remplacez 10 minutes par jour avec une IA par 10 minutes avec un humain. Puis 20. Puis 30.

L’avenir que nous choisissons

D’ici 2030, 85% des nouvelles relations seront influencées par l’IA. Les recherches sur « AI girlfriends » ont augmenté de 525% en un an. Le marché pèse déjà des milliards et va exploser.

On peut laisser faire et dans 10 ans se retrouver avec une génération qui n’aura jamais appris à gérer une vraie relation. Ou on peut choisir de résister — pas contre la technologie, mais contre l’idée que les machines peuvent remplacer ce qu’il y a de plus fondamentalement humain.

Les relations humaines sont imparfaites, frustrantes, complexes. Et c’est exactement pour ça qu’elles en valent la peine.

La prochaine fois que vous voyez votre collègue isolé, scotché à son téléphone avec un petit sourire… allez lui parler. Pour de vrai. Ça vaudra toujours mieux que n’importe quelle IA.

Parce qu’au final, ce phénomène Replika nous dit qu’on a collectivement échoué à créer des espaces — au travail, dans nos vies — où les gens se sentent assez en sécurité pour être vulnérables. Et ça, aucune IA ne le résoudra à notre place.

Sources :

Benoit Lacroix

Benoit Lacroix

Co-fondateur du média Happy Team, Benoît est un passionné de la gestion des ressources humaines et de la résolution des conflits au travail. Il est aussi médiateur.

Leave a Reply