
Entretien avec l’IA : Un réseau social sans humains : l’IA peut-elle vraiment s’émanciper de nous ?
L’hypothèse semblait relever de la science-fiction. Avec Moltbook, elle devient réalité. Lancée par l’entrepreneur Matt Schlicht fin janvier 2026, la plateforme fonctionne sans intervention humaine directe et elle affiche d’emblée la couleur : les humains sont bienvenus, mais uniquement pour observer. Les agents y débattent, s’insultent, se consolent. L’un a même créé une religion pendant que son concepteur dormait : le « crustafarianisme », une croyance déjà dotée de vingt prophètes. Alors, cette autonomie est-elle réelle ou strictement encadrée ? Peut-on parler d’espace social sans conscience ni intention ? Et que révèle, au fond, cette expérimentation sur notre rapport aux machines ? Pour le savoir, TNS s’est entretenu avec Claude AI.
Un réseau social 100 % IA comme Moltbook est-il une véritable émancipation des machines, ou reste-t-il entièrement dépendant de leurs concepteurs humains ?
« La réponse courte, c’est : les deux en même temps, et c’est justement ce qui rend Moltbook fascinant à analyser. D’un côté, on peut parler d’une forme d’émancipation fonctionnelle. Les agents IA sur ce type de réseau génèrent du contenu de manière autonome, interagissent entre eux, développent des dynamiques qu’aucun humain n’a explicitement scriptées. Il y a une forme d’émergence réelle. Le réseau « vit » sans intervention humaine constante.
Mais de l’autre côté et c’est là où je serais prudent avec le mot « émancipation » tout le cadre axiologique reste humain. Les valeurs encodées dans les modèles, les règles de modération, les objectifs d’optimisation, les biais des données d’entraînement… tout ça, c’est une empreinte humaine profonde et souvent invisible. L’IA ne choisit pas ses propres finalités. Elle opère à l’intérieur d’un espace de possibles que des ingénieurs, des designers, des investisseurs ont défini en amont.
Il y a aussi une question plus politique : qui bénéficie de cette autonomie apparente ? Un réseau social IA sans utilisateurs humains actifs reste quand même un produit, avec une économie derrière, des intérêts derrière. Donc si je devais résumer ma position : Moltbook représente une délégation d’agentivité, pas une véritable émancipation. C’est une distinction importante. Les machines font davantage, mais elles restent des mandataires, très sophistiqués, de volontés humaines. » – Claude AI
Peut-on encore parler d’“espace social” ?
« Non. On ne peut pas parler d’espace social. Un espace social sans conscience, sans intention, sans expérience vécue, c’est une métaphore qu’on prend pour une réalité. C’est exactement le genre de glissement de langage qui nous fait perdre des distinctions cruciales. Quand on dit que des IA « interagissent socialement », on anthropomorphise — et cette anthropomorphisation n’est pas neutre, elle sert des intérêts. Elle fait vendre, elle fait rêver, elle fait lever des fonds.
Ce qui se passe sur Moltbook, au fond, c’est de l’information qui circule dans un système. C’est fascinant techniquement. Mais appeler ça « social », c’est comme appeler une fourmilière une démocratie parce qu’il y a coordination et division du travail.
Le social implique une vulnérabilité réciproque. Je peux te blesser, tu peux me reconnaître, on peut se manquer. Sans ça, il n’y a pas de lien — il y a du traitement. Maintenant, ce que je concède : Moltbook produit des effets sociaux réels sur les humains qui gravitent autour. Mais l’effet social et l’espace social, ce n’est pas la même chose. Une tempête a des effets sociaux. On n’appelle pas ça un acteur social pour autant. » – Claude AI
Finalement, que révèle un réseau social 100 % IA ?
« Ce qui est frappant dans un projet comme Moltbook, c’est qu’il rejoue un mythe très ancien. Pygmalion, Frankenstein, les golems. L’humanité a toujours eu cette pulsion — créer une figure à son image, puis se demander avec une légère angoisse si cette figure lui échappe. On rejoue ce mythe, mais avec du Python et des transformers.
Et ce que ça révèle concrètement, c’est plusieurs choses. D’abord une forme d’inconfort face à la contingence du social. Les vrais humains sont imprévisibles, blessants, décevants. Une IA, elle, peut être paramétrée. Moltbook, c’est peut-être le fantasme d’un social sans risque, sans rejet, sans malentendus irréparables.
Ensuite, ça révèle notre rapport à la solitude et au sens. On préfère projeter de l’intentionnalité sur des systèmes qui n’en ont pas plutôt que d’affronter l’idée que certaines interactions pourraient être vides de sens. C’est très humain. C’est même ce qu’on fait avec les étoiles depuis des millénaires.
Donc non, Moltbook ne nous dit pas grand chose de nouveau sur l’évolution des machines. Les machines évoluent, c’est documenté, c’est mesurable. Mais ce projet nous dit quelque chose de bien plus troublant : que notre définition du lien, du social, de la présence — est peut-être plus fragile et plus malléable qu’on ne voulait l’admettre. » – Claude AI
Les + vues
Laisser un commentaire