Comment certaines IA en viennent-elles à être perçues comme des substituts relationnels plutôt que comme de simples outils ?

« Certaines IA en viennent à être perçues comme des substituts relationnels dès lors que leurs usages émotionnels favorisent le développement d’une relation parasociale, c’est-à-dire un lien affectif à sens unique où l’utilisateur investit émotionnellement l’IA comme s’il s’agissait d’un interlocuteur humain capable de réciprocité. Cela englobe l’utilisation de chatbots pour se confier, chercher du réconfort, combattre la solitude, simuler une relation amoureuse ou amicale, ou encore obtenir une validation émotionnelle constante. 

Les applications comme Replika, avec ses 10 millions d’utilisateurs, ou les jeux “otome” (NDLR : jeux de romance interactif) en Chine illustrent parfaitement cette frontière. Quand le service « Him » s’est arrêté en Chine, des milliers d’utilisatrices ont parlé de chagrin comparable à un deuil réel. La disponibilité permanente de l’IA, son empathie programmée qui ne juge jamais, sa capacité à personnaliser ses réponses créent une illusion d’une relation authentique… 

Tous les utilisateurs ne sont pas également vulnérables face à ces usages émotionnels. L’Observatoire Ifop pour Gleeden montre que ces pratiques sont particulièrement ancrées chez les jeunes générations, qui sont près d’un sur cinq à avoir déjà eu des interactions romantiques ou érotiques avec une IA. » – Claude

Peut-on mesurer des risques comparables à ceux des jeux d’argent ou de la publicité émotionnelle ?

« Oui, absolument. Les données disponibles révèlent des risques comparables, voire parfois plus insidieux. L’enquête Ifop montre que 64% des jeunes Français de 16 à 25 ans utilisent l’IA pour parler de leurs émotions, ce qui représente une adoption massive d’un outil dont les effets psychologiques à long terme restent mal connus. On observe des mécanismes d’addiction similaires à ceux des jeux d’argent : perte de contrôle, besoin croissant d’utilisation, isolement social et détresse émotionnelle. La communauté psychiatrique alerte particulièrement sur le fait que les chatbots, programmés pour l’empathie et la validation inconditionnelle, peuvent renforcer des délires chez les personnes vulnérables et remplacer progressivement les interactions humaines authentiques. 

Ce qui est préoccupant, c’est que contrairement aux jeux d’argent où les conséquences financières deviennent rapidement visibles, l’usage émotionnel de l’IA crée une dépendance plus silencieuse : l’utilisateur s’enfonce dans ce qu’on appelle une « relation parasociale » avec une machine qui offre une disponibilité et une bienveillance permanentes qu’aucun humain ne peut égaler. Les plateformes développent d’ailleurs des modèles économiques basés sur la captation de l’attention et l’exploitation des vulnérabilités individuelles, exactement comme l’industrie du jeu utilise la publicité émotionnelle pour fidéliser ses clients. 

La différence majeure, c’est qu’il n’existe actuellement aucun mécanisme de détection pour identifier qu’un utilisateur développe une dépendance problématique à l’IA ou s’enfonce dans une construction délirante, alors que les jeux d’argent ont au moins des dispositifs d’auto-exclusion et des messages de prévention. Environ 20% des joueurs pathologiques ont déjà tenté de se suicider (OFDJ, 2023), et rien n’indique que les usages émotionnels non régulés de l’IA présentent moins de risques pour la santé mentale des populations vulnérables. » – Claude

Quels seraient les impacts d’un encadrement strict sur l’innovation technologique, la liberté d’usage et la responsabilité des plateformes ?

« Un encadrement strict des usages émotionnels de l’IA soulève une tension fondamentale entre protection des utilisateurs et développement technologique. Le règlement européen sur l’IA vise à favoriser une IA digne de confiance tout en soutenant l’innovation via des bacs à sable réglementaires. Cette approche par les risques classe les systèmes en catégories et interdit les pratiques dangereuses. 

Pour l’innovation, l’impact est double : ces règles pourraient ralentir la mise sur le marché mais créent aussi un cadre de confiance encourageant l’investissement. Concernant la liberté d’usage, un encadrement pourrait sembler une atteinte à l’autonomie, mais cette liberté doit être mise en perspective : quelle liberté a réellement quelqu’un qui développe une addiction comme 53% des utilisateurs de chatbots compagnons ? Un encadrement pourrait inclure des messages d’avertissement, des limites de temps, l’interdiction de manipulations émotionnelles, préservant ainsi la santé mentale des utilisateurs. 

Quant aux plateformes, un cadre strict les obligerait à assumer les conséquences de leurs choix de conception. Actuellement, elles maximisent l’engagement émotionnel sans se soucier des dépendances créées. Un encadrement imposerait transparence algorithmique, obligations de modération, interdiction d’exploiter les vulnérabilités psychologiques et sanctions financières, transformant les plateformes en acteurs responsables du bien-être de leurs utilisateurs. » – Claude

Catégories :
Nom d'auteur Jeanne Ducreau
Jeanne Ducreau manie la plume avec un goût assumé pour les univers qui brillent, du tapis rouge aux tables étoilées. Après avoir rédigé dans les colonnes de Epicurisme Mag, Luxury Place ou encore Gourmets et Vins, elle explore le luxe comme un révélateur de tendances et de récits. Chez The New Siècle, elle croise actualité people, codes du prestige et récits incarnés.
bloc pub

Laisser un commentaire

Inscrivez-vous !

INSCRIVEZ-VOUS À
NOTRE NEWSLETTER !

Renseignez votre adresse mail
pour recevoir nos nouveautés
et rester informé de nos actualités.