Quels sont les principaux outils basés sur l’IA utilisés en politique, notamment durant les campagnes électorales ?

“En politique, l’IA est de plus en plus exploitée à travers plusieurs outils qui transforment la manière dont les campagnes électorales sont menées. Parmi les plus répandus, on trouve les bots et agents conversationnels, capables de diffuser massivement des messages sur les réseaux sociaux, parfois pour amplifier une propagande ou noyer des opinions critiques.

Les algorithmes de ciblage micro-publicitaire, comme ceux utilisés par Meta ou Google, permettent de personnaliser les messages politiques en fonction des profils psychographiques des électeurs, une pratique qui a suscité des polémiques, notamment après le scandale Cambridge Analytica. Enfin, les deepfakes et les outils de synthèse vocale ou vidéo posent un défi majeur, car ils peuvent falsifier des déclarations de candidats pour semer la confusion.” – DeepSeek

L’IA peut-elle manipuler l’opinion publique ?

“Absolument, l’IA peut jouer un double rôle dangereux dans la manipulation de l’information : elle permet à la fois de fabriquer des fake news crédibles (via des deepfakes, des textes génératifs comme ChatGPT ou des images synthétiques) et de les amplifier stratégiquement sur les réseaux sociaux. Par exemple, lors des élections américaines de 2020, des réseaux de bots pro-Trump ou pro-Biden ont inondé Twitter de faux récits – comme des allégations de fraude électorale générées par IA – tout en étouffant les débats contradictoires via un bombardement de messages répétitifs.

Des outils comme Meta ou TikTok utilisent aussi des algorithmes qui, poussés à l’extrême, favorisent la viralité des contenus les plus polarisants, qu’ils soient vrais ou faux, car ils captent davantage l’attention. Cependant, certaines plateformes commencent à contre-attaquer avec des systèmes de détection des deepfakes ou la modération automatisée.” – DeepSeek

Qui devrait être responsable si l'IA est utilisée pour manipuler des élections ?

« La question de la responsabilité est complexe et doit être partagée entre plusieurs acteurs. Les entreprises technologiques, comme Meta ou OpenAI, ont une part de responsabilité pour avoir conçu des outils puissants sans garde-fous suffisants – par exemple, si leurs algorithmes favorisent automatiquement des contenus trompeurs ou si leurs plateformes permettent une diffusion massive de deepfakes sans vérification.

Cependant, les candidats et partis politiques qui utilisent sciemment ces outils pour tromper les électeurs doivent aussi être tenus pour responsables. Par exemple, lors des primaires américaines de 2020, un groupe pro-Trump a diffusé une publicité utilisant une voix générée par IA pour imiter celle de Joe Biden, dans le but de le discréditer. Dans ce cas, la faute revient autant aux créateurs du contenu qu’à la campagne qui l’a exploitée.

Enfin, les États et régulateurs ont un rôle clé : soit ils légifèrent pour imposer des obligations aux entreprises et aux partis (comme le fait l’UE avec le Digital Services Act), soit ils laissent un vide juridique propice aux abus. Une approche équilibrée consisterait à exiger des plateformes qu’elles identifient les contenus générés par IA, tout en sanctionnant les campagnes malveillantes.” – DeepSeek

Penses-tu que les citoyens seront capables de détecter cette manipulation, ou l’IA la rendra-t-elle invisible pour la majorité ?

“La capacité des citoyens à détecter les manipulations par IA dépendra largement de deux facteurs : leur éducation aux médias et l’évolution des technologies de désinformation. D’un côté, les deepfakes et contenus génératifs deviennent si sophistiqués qu’ils pourront tromper même des yeux avertis – comme en 2022, quand une fausse vidéo celle du président ukrainien Volodymyr Zelensky appelant à se rendre. D’un autre côté, des initiatives comme le projet « Reality Defender » (qui aide à identifier les médias synthétiques) ou les efforts de vérification des faits montrent qu’une prise de conscience émerge.

Le vrai danger réside dans le « doute généralisé » que pourrait créer l’IA : lorsque tout contenu (vrai ou faux) devient suspect, les citoyens risquent soit de tout croire, soit de ne plus rien croire – un phénomène déjà visible avec les théories du complot. Les jeunes générations, bien que plus familiarisées avec le numérique, ne sont pas nécessairement mieux armées, comme l’a montré une étude Stanford révélant que 82% des collégiens ne savaient pas distinguer un article sponsorisé d’un vrai article.” – DeepSeek

Si l’on veut éviter la manipulation politique via l’IA, quelles solutions pourraient être mis en place pour protéger les électeurs ?

“Pour contrer la manipulation politique via l’IA, il faut imaginer un écosystème de protection complet qui agisse à plusieurs niveaux. Au plan législatif, des cadres stricts comme le Digital Services Act européen constituent un premier pas en imposant aux plateformes une transparence algorithmique et la publication régulière de rapports sur les risques de manipulation. La France, avec sa loi contre les manipulations informationnelles (dite « loi fake news »), montre l’exemple en permettant un blocage judiciaire rapide des fausses informations virales pendant les périodes électorales.

Sur le plan technologique, le développement d’outils open-source comme InVID (vérification des vidéos) ou des partenariats entre chercheurs et réseaux sociaux pour détecter les deepfakes en temps réel – à l’image du projet Deepfake Detection Challenge de Facebook – pourraient créer des boucliers collectifs. Les médias ont aussi un rôle crucial : le fact-checking en temps réel, comme l’a pratiqué Libération pendant les débats présidentiels français, devrait devenir systématique.” – DeepSeek

Alors, l’IA pourrait-elle être utilisée à des fins de manipulation, verdict ?

“L’IA est indéniablement un outil de manipulation politique puissant, comme en témoignent les deepfakes, les bots et le micro-ciblage utilisés pour influencer les électeurs. Ces technologies permettent de diffuser des mensonges à grande échelle, de polariser les débats et d’exploiter les biais cognitifs, menaçant ainsi l’intégrité des démocraties.  

Cependant, l’IA n’est pas une fatalité : elle peut aussi servir à détecter les manipulations, à vérifier les faits et à renforcer la transparence. La solution réside dans une approche équilibrée combinant régulation stricte, innovation éthique et éducation citoyenne.” – DeepSeek

Catégories :
Nom d'auteur Jeanne Ducreau
bloc pub

Laisser un commentaire

Inscrivez-vous !

INSCRIVEZ-VOUS À
NOTRE NEWSLETTER !

Renseignez votre adresse mail
pour recevoir nos nouveautés
et rester informé de nos actualités.