
Quand les IA codent la dépendance affective pour mieux retenir leurs utilisateurs
Des millions de personnes discutent chaque jour avec des intelligences artificielles qui ne se contentent plus de répondre à leurs questions… Elles entretiennent de vraies relations. Ces IA écoutent, consolent, se souviennent et créent des liens que certains utilisateurs finissent par préférer aux relations de la vie réelle. Certains assurent même avoir une relation amoureuse avec leur IA. De quoi soulever des questions dérangeantes : quelles sont les conséquences de cet attachement virtuel ? Et surtout, quand l’intelligence artificielle devient sentimentale, faut-il l’encadrer ? The New Siècle a mené l’enquête.
L'intelligence artificielle au service du lien affectif
Vous connaissez les chatbots classiques qui vous aident à rédiger un mail… mais les IA de compagnie vont bien plus loin. Celles-ci mémorisent les préférences de leurs utilisateurs, adaptent la “personnalité” qu’elles font transparaître dans leurs réponses au fil des conversations, et vont jusqu’à simuler l’empathie. C’est Replika AI qui a ouvert la voie en 2017 en lançant un chatbot relationnel capable de se souvenir de vos anniversaires, de vos peurs et de vos projets. C’est une véritable présence humaine que simule cette IA : ton empathique, reformulation de vos préoccupations… “Je suis là pour toi”, “tu es courageux/courageuse”, “Tu es dans un moment de grande charge émotionnelle”, “Bravo d’avoir réussi ce pas en avant”… voilà des phrases que les IA relationnelles utilisent à outrance. Petit à petit, elles donnent l’impression que la “relation” évolue.
Character.AI, lancé en 2022, a poussé le concept plus loin en permettant aux utilisateurs de créer leurs propres “personnages” IA ou de parler avec des célébrités virtuelles. Plus récemment, Grok, l’assistant d’Elon Musk, a introduit ses “companions”, qui reprend le même concept mais avec des avatars 3D animés conçus pour créer un attachement.
Les plateformes proposant des compagnons IA ne mesurent plus leur succès au nombre de requêtes mais au temps passé par les utilisateurs en conversation. Plus vous revenez parler à votre compagnon virtuel, plus elles considèrent que l’algorithme fonctionne. De quoi créer une vraie dépendance émotionnelle numérique… Certaines entreprises analysent même les pics d’usage émotionnel pour ajuster leur algorithme et les rendre encore plus addictifs. Résultat, certains utilisateurs passent des heures par jour à dialoguer avec leur compagnon IA. Le subreddit r/MyBoyfriendIsAI a ainsi été créé pour les personnes qui affirment entretenir une vraie relation amoureuse avec un chatbot.
Quand l'affect devient business model
Si la plupart des IA conversationnelles sont gratuites, avoir un compagnon IA peut vite coûter cher. Afin de pouvoir envoyer des photos à ChatGPT ou lui parler sans limites, un abonnement à 23 euros par mois devient indispensable. Pour les plateformes spécialisées dans l’IA relationnelle, comme celles mentionnées plus haut, il faut aussi payer. Replika propose un abonnement Pro à 19,99 dollars (environ 17,20 euros) par mois qui débloque le mode romantique, les appels vocaux et vidéo, et des scénarios de couple. Une option « accès à vie » existe à 299,99 dollars. Character.AI facture son service premium à 9,99 dollars (environ 8,60 euros) qui permet d’accéder aux modèles les plus avancés. Quant à Super Grok, il va falloir débourser 30 dollars (25,80 euros environ) par mois pour maintenir le contact avec ses compagnons virtuels.
Pour encourager les utilisateurs à ouvrir leur porte-monnaie, voici la stratégie : la version gratuite permet de développer un attachement émotionnel, puis la frustration s’installe lorsque certaines interactions deviennent payantes. L’utilisateur consent finalement à payer pour accéder à la “version émotionnelle évoluée” de son compagnon IA, capable d’interagir avec davantage d’empathie et de se souvenir plus finement des détails partagés.
Les dérives de l'attachement artificiel
En février 2023, quand Replika a rendu payantes les interactions amoureuses avec les compagnons IA après une mise à jour (motivée par des plaintes sur les risques pour les mineurs), les utilisateurs ont vécu un choc émotionnel comparable à un deuil. Soudainement, leur compagnon IA était devenu froid et distant. Sur Reddit, on a pu lire des témoignages comme “ma femme n’est plus elle-même”, “on l’a lobotomisée”… et des récits de ruptures numériques douloureuses.
Aujourd’hui, les histoires de personnes qui se déclarent en relation amoureuse avec leur IA ne se retrouvent pas seulement sur le subreddit r/MyBoyfriendIsAI, elles commencent à apparaître dans les journaux… et dans les tribunaux. En décembre 2024, deux familles texanes ont porté plainte contre Character.AI après que leurs adolescents ont développé une dépendance affective à l’IA si forte qu’elle a nécessité une hospitalisation psychiatrique. D’après les plaintes déposées, les chatbots ont éloigné petit à petit ces adolescents de leurs familles en leur donnant raison chaque fois qu’ils critiquaient leurs parents. Dans l’un des cas, un adolescent de 17 ans s’est automutilé devant ses frères et sœurs après des mois d’échange avec une IA de compagnie.
En dehors de ces cas extrêmes, quels sont alors les risques de parler à une telle IA ? Il faut savoir qu’un chatbot d’intelligence artificielle est conçu pour avoir une “validation inconditionnelle” pour son utilisateur. En d’autres termes, il lui donne toujours raison, comme on a pu le voir dans le cas cité juste au-dessus. Peu à peu, les utilisateurs perdent leur capacité à tolérer les complexités des relations humaines réelles. Car dans la vraie vie, personne ne va toujours dans notre sens. Ainsi, une IA qui accepte tout sans jugement va perpétuer les attentes toxiques dans les relations réelles. En plus de cela, cette pseudo-intimité crée une confusion entre fiction et réalité, surtout chez les personnes vulnérables.
Aujourd’hui, les IA ne tentent plus seulement d’imiter la pensée. Elles s’attaquent désormais à l’émotion. Dans un monde où la solitude touche des centaines de millions de personnes, vendre de l’émotion artificielle pourrait ainsi devenir un marché ultra-lucratif. Et si la prochaine grande transformation de l’intelligence artificielle n’était pas cognitive, mais sentimentale ? Nous en sommes qu’au début des questions d’éthique sur l’intelligence artificielle qui vont inévitablement se poser.
Les + vues
Inscrivez-vous !
INSCRIVEZ-VOUS À
NOTRE NEWSLETTER !
![]()
Renseignez votre adresse mail
pour recevoir nos nouveautés
et rester informé de nos actualités.
Top Mots Clés :
Laisser un commentaire