
Entretien avec l’IA : Faut-il encadrer les usages émotionnels de l’IA comme on encadre la publicité ou les jeux d’argent ?
Alors que l’intelligence artificielle se banalise dans nos vies, des tâches quotidiennes aux interactions affectives, les usages dits « émotionnels » de ces technologies suscitent de plus en plus de débats. Une enquête récente Ifop pour Gleeden, menée en novembre 2025 auprès de 2 603 Français·es, révèle que plus de la moitié des utilisateurs de chatbots compagnons (53 %) déclarent avoir déjà ressenti une forme de dépendance affective à ces interactions. À l’instar des secteurs sensibles comme les jeux d’argent, connus pour leurs risques addictifs et leurs lourdes régulations, les interactions émotionnelles avec des IA posent des questions psychologiques et sociales profondes. Dans ce contexte, faut-il légiférer pour encadrer ces usages ? Quels risques réels pèsent sur l’autonomie émotionnelle des individus ? Et comment trouver un équilibre entre innovation et protection des usagers ? Pour le savoir, TNS a interrogé l’IA Claude.
Comment certaines IA en viennent-elles à être perçues comme des substituts relationnels plutôt que comme de simples outils ?
« Certaines IA en viennent à être perçues comme des substituts relationnels dès lors que leurs usages émotionnels favorisent le développement d’une relation parasociale, c’est-à-dire un lien affectif à sens unique où l’utilisateur investit émotionnellement l’IA comme s’il s’agissait d’un interlocuteur humain capable de réciprocité. Cela englobe l’utilisation de chatbots pour se confier, chercher du réconfort, combattre la solitude, simuler une relation amoureuse ou amicale, ou encore obtenir une validation émotionnelle constante.
Les applications comme Replika, avec ses 10 millions d’utilisateurs, ou les jeux “otome” (NDLR : jeux de romance interactif) en Chine illustrent parfaitement cette frontière. Quand le service « Him » s’est arrêté en Chine, des milliers d’utilisatrices ont parlé de chagrin comparable à un deuil réel. La disponibilité permanente de l’IA, son empathie programmée qui ne juge jamais, sa capacité à personnaliser ses réponses créent une illusion d’une relation authentique…
Tous les utilisateurs ne sont pas également vulnérables face à ces usages émotionnels. L’Observatoire Ifop pour Gleeden montre que ces pratiques sont particulièrement ancrées chez les jeunes générations, qui sont près d’un sur cinq à avoir déjà eu des interactions romantiques ou érotiques avec une IA. » – Claude
Peut-on mesurer des risques comparables à ceux des jeux d’argent ou de la publicité émotionnelle ?
« Oui, absolument. Les données disponibles révèlent des risques comparables, voire parfois plus insidieux. L’enquête Ifop montre que 64% des jeunes Français de 16 à 25 ans utilisent l’IA pour parler de leurs émotions, ce qui représente une adoption massive d’un outil dont les effets psychologiques à long terme restent mal connus. On observe des mécanismes d’addiction similaires à ceux des jeux d’argent : perte de contrôle, besoin croissant d’utilisation, isolement social et détresse émotionnelle. La communauté psychiatrique alerte particulièrement sur le fait que les chatbots, programmés pour l’empathie et la validation inconditionnelle, peuvent renforcer des délires chez les personnes vulnérables et remplacer progressivement les interactions humaines authentiques.
Ce qui est préoccupant, c’est que contrairement aux jeux d’argent où les conséquences financières deviennent rapidement visibles, l’usage émotionnel de l’IA crée une dépendance plus silencieuse : l’utilisateur s’enfonce dans ce qu’on appelle une « relation parasociale » avec une machine qui offre une disponibilité et une bienveillance permanentes qu’aucun humain ne peut égaler. Les plateformes développent d’ailleurs des modèles économiques basés sur la captation de l’attention et l’exploitation des vulnérabilités individuelles, exactement comme l’industrie du jeu utilise la publicité émotionnelle pour fidéliser ses clients.
La différence majeure, c’est qu’il n’existe actuellement aucun mécanisme de détection pour identifier qu’un utilisateur développe une dépendance problématique à l’IA ou s’enfonce dans une construction délirante, alors que les jeux d’argent ont au moins des dispositifs d’auto-exclusion et des messages de prévention. Environ 20% des joueurs pathologiques ont déjà tenté de se suicider (OFDJ, 2023), et rien n’indique que les usages émotionnels non régulés de l’IA présentent moins de risques pour la santé mentale des populations vulnérables. » – Claude
Quels seraient les impacts d’un encadrement strict sur l’innovation technologique, la liberté d’usage et la responsabilité des plateformes ?
« Un encadrement strict des usages émotionnels de l’IA soulève une tension fondamentale entre protection des utilisateurs et développement technologique. Le règlement européen sur l’IA vise à favoriser une IA digne de confiance tout en soutenant l’innovation via des bacs à sable réglementaires. Cette approche par les risques classe les systèmes en catégories et interdit les pratiques dangereuses.
Pour l’innovation, l’impact est double : ces règles pourraient ralentir la mise sur le marché mais créent aussi un cadre de confiance encourageant l’investissement. Concernant la liberté d’usage, un encadrement pourrait sembler une atteinte à l’autonomie, mais cette liberté doit être mise en perspective : quelle liberté a réellement quelqu’un qui développe une addiction comme 53% des utilisateurs de chatbots compagnons ? Un encadrement pourrait inclure des messages d’avertissement, des limites de temps, l’interdiction de manipulations émotionnelles, préservant ainsi la santé mentale des utilisateurs.
Quant aux plateformes, un cadre strict les obligerait à assumer les conséquences de leurs choix de conception. Actuellement, elles maximisent l’engagement émotionnel sans se soucier des dépendances créées. Un encadrement imposerait transparence algorithmique, obligations de modération, interdiction d’exploiter les vulnérabilités psychologiques et sanctions financières, transformant les plateformes en acteurs responsables du bien-être de leurs utilisateurs. » – Claude
Les + vues
Inscrivez-vous !
INSCRIVEZ-VOUS À
NOTRE NEWSLETTER !
![]()
Renseignez votre adresse mail
pour recevoir nos nouveautés
et rester informé de nos actualités.
Laisser un commentaire