
David Colon, historien et professeur associé à Science Po, spécialiste de la manipulation de masse, est l’auteur de La Guerre de l’information (Tallandier, 2023). Il analyse la façon dont les réseaux sociaux ont permis d’amplifier l’efficacité de techniques de guerre cognitive issues du monde militaire et appliquées au champ politique, à l’image de la campagne présidentielle roumaine ou de la désinformation russe.
Le 4 mai, un nouveau premier tour de l’élection présidentielle roumaine aura lieu, après l’annulation du scrutin, en décembre 2024, pour des soupçons de manipulation des algorithmes en faveur du candidat prorusse, Calin Georgescu. Que s’est-il passé ?
Crédité de 1 % des votes quatre semaines avant le scrutin, M. Georgescu a obtenu 23 % des suffrages après une campagne menée essentiellement sur TikTok, où a été employée la technique de l’« astroturfing », qui consiste à donner une fausse image de soutien populaire massif. Il y a eu une manipulation coordonnée des algorithmes de recommandation de la plateforme chinoise, à travers, d’une part, des influenceurs rémunérés pour produire des vidéos incitant à voter et, d’autre part, la publication massive de commentaires renvoyant aux contenus de M. Georgescu par des réseaux de comptes authentiques et de faux comptes.
Lire aussi | Article réservé à nos abonnés A la veille de la présidentielle, la Roumanie perd la boussole
Parce que les algorithmes de TikTok sont configurés pour recommander aux utilisateurs les contenus les plus récents et les plus viraux, les vidéos de M. Georgescu ont alors été exposées massivement, agissant sur les perceptions des électeurs roumains.
Les initiateurs de cette campagne ont exploité plusieurs failles cognitives, comme le biais de nouveauté, qui nous fait préférer un nouveau candidat auquel aucune impression négative n’est associée, et le biais d’autorité qui a, par exemple, conduit le public captif d’influenceuses beauté à suivre leur recommandation de voter Georgescu. Certains micro-influenceurs, dont le nombre d’abonnés est peu élevé, ont un lien si fort avec leur audience qu’ils exercent une plus grande influence qu’une star forte de millions d’abonnés.
S’agit-il de la première tentative de manipulation électorale en Europe basée non plus sur des biais informatifs mais sur des biais cognitifs ?
La première opération à grande échelle de ce type a eu lieu au moment du Brexit, en 2016. La campagne numérique avait été conçue par une filiale de Cambridge Analytica [entreprise de nouvelles technologies fondée à Londres, en 2013, spécialisée dans l’analyse de données à grande échelle et le conseil en communication], avec Steve Bannon aux manettes, cet idéologue d’extrême droite devenu, peu de temps après, le directeur de campagne de Donald Trump.
Cette campagne reposait sur l’application au champ politique de techniques de guerre cognitive issues du monde militaire. Il s’agissait d’altérer les mécanismes de compréhension du monde réel et la prise de décision des électeurs, notamment des abstentionnistes, en les exposant à des contenus qui jouaient sur leurs caractéristiques psychologiques. Le but était de susciter une colère envers les migrants, les autorités politiques installées, l’Union européenne. Depuis, ces techniques se sont généralisées et perfectionnées.
La colère est une arme redoutable…
En effet, et Steve Bannon est le premier à avoir identifié la possibilité offerte par les médias sociaux de canaliser cette colère par le recours à la guerre psychologique, ce que les militaires appellent les « psychological operations ».
Cambridge Analytica a ainsi développé des outils d’analyse prédictive de la personnalité, qui exploitaient les données Facebook pour cibler les électeurs. Bannon s’est appuyé sur les travaux de l’ingénieur en sciences sociales Aleksandr Kogan, qui a conçu des outils d’analyse prédictive de la « triade sombre » de la personnalité. Il s’agit d’individus qui cumulent trois traits de personnalité – psychopathie, narcissisme et machiavélisme – prédictifs à la fois de l’adhésion à des théories du complot et de l’engagement dans des actions violentes. Ils étaient ciblés par des publicités, incités à rejoindre des groupes Facebook où ils étaient exposés à des contenus à forte charge émotionnelle, et encouragés à passer à l’acte en ligne ou dans le monde réel.
Le renseignement russe a très tôt « capturé » cette technologie : Aleksandr Kogan a reproduit ses expériences à Saint-Pétersbourg entre 2015 et 2017 avec une équipe de psychologues russes, tandis que les données Facebook présentes sur son ordinateur étaient piratées par le renseignement militaire. L’Internet Research Agency d’Evgueni Prigojine, le fondateur du groupe paramilitaire Wagner, a eu recours au ciblage psychologique pour démultiplier le trolling, tout en enfermant des groupes d’internautes dans des chambres d’écho propices à l’exploitation de biais cognitifs, tels que l’effet de « vérité illusoire » découlant de la répétition de choses fausses, ou le biais de confirmation, voyant les individus privilégier les faits allant dans le sens de leurs idées préconçues.
Les milieux militaires réfléchissent depuis longtemps à la « guerre cognitive ». Est-elle désormais possible parce que les technologies numériques sont arrivées à maturité ?
La guerre cognitive est possible parce qu’un nombre considérable d’esprits sont devenus accessibles. Chaque génération a sa plateforme. TikTok est une fenêtre sur le cerveau des jeunes, en même temps que leur principale fenêtre sur le monde. Ils l’utilisent pour s’informer sur l’actualité, à travers des influenceurs, mais aussi pour accéder à la presse.
Or, les médias sociaux faussent la perception de la réalité. Les choix algorithmiques des plateformes sont déterminés par leurs intérêts économiques. La maximisation des revenus publicitaires suppose l’optimisation de l’engagement des utilisateurs, d’où la nécessité de poster des contenus attrayants, au mépris de la qualité. Enfin, on peut s’interroger sur la manipulation de masse, via des personnes qui font profession d’influencer à grande échelle les perceptions des individus pour le compte de clients variés, industries, armées, gouvernements, candidats à des élections.
La Chine travaille aussi au déploiement de stratégies pour reprendre le pouvoir sur Taïwan sans avoir recours à la force conventionnelle. Qu’en pensez-vous ?
Les militaires chinois ont observé de très près les avancées russes en matière de guerre cognitive, et ont développé récemment deux concepts qui prennent en compte l’essor de l’IA, l’intelligence artificielle. Le premier est la « guerre intelligentisée », qui vise à accélérer la guerre cognitive en saturant l’espace informationnel de contenus. Le second est la « guerre cognitive algorithmique », qui désigne le recours à l’IA pour exercer une influence précise et individualisée à travers l’utilisation de données complètes sur des populations cibles et l’instrumentalisation des algorithmes des plateformes. Tout cela vise à faire entrer les populations cibles dans ce que les Chinois appellent un « cocon informationnel » et, in fine, à remporter la guerre sans avoir à la mener.
La Russie, elle, multiplie les campagnes de désinformation basées sur le ressort de la peur…
Depuis février 2022, le Kremlin mène une guerre de l’information systématique et coordonnée contre tous les pays qui soutiennent l’Ukraine. Cette stratégie, menée notamment en France, est directement orchestrée par Dmitri Medvedev, le vice-président du Conseil de sécurité, et par Sergueï Kirienko, le chef adjoint de l’administration présidentielle.
Il s’agit d’abord de fragiliser le soutien à Kiev dans les opinions publiques, en propageant l’émotion la plus forte dans la psyché humaine, la peur, que ce soit la psychose nucléaire, la psychose terroriste ou la peur du lendemain.
Lire aussi | Article réservé à nos abonnés Contre Kiev et ses alliés, Moscou intensifie les opérations de guerre « hybride »
Il s’agit ensuite de soutenir par tous les moyens les partis pro-Kremlin. Pour ce faire, les Russes appliquent un principe jadis résumé ainsi par le directeur général britannique de Cambridge Analytica : pour vendre du Coca-Cola dans une salle de cinéma, le plus sûr moyen est d’augmenter la température et de provoquer la soif. Les réseaux de propagande du Kremlin s’emploient ainsi à augmenter artificiellement la température du débat public, en amplifiant tous les sujets clivants susceptibles en outre de détourner l’attention de l’Ukraine. Ils s’emploient par exemple à exacerber tout ce qui touche au conflit israélo-palestinien, à l’insécurité, à l’immigration, aux questions de genre et, plus largement, à tout ce qui touche aux guerres culturelles.
De quelle façon ?
En exploitant les caractéristiques de la fabrique de l’information. C’est comme une guerre cognitive menée, non pas à l’échelle individuelle, mais contre le système médiatique. L’IA générative leur permet d’automatiser cela à des niveaux inédits, ce qui participe de leur stratégie de blanchiment de leurs opérations.
En quelque sorte, ils infectent la chaîne de production de l’information, à l’insu de ceux qui y contribuent, en poussant les récits qui servent leurs intérêts stratégiques à l’instant T, en influençant notamment les « tendances Google » que regardent les rédactions le matin pour planifier leur production éditoriale du jour. Tendance qui est généralement prédictive des revenus publicitaires en ligne.
Depuis son retour à la Maison Blanche, Donald Trump a ouvert de nombreux fronts, Groenland, canal de Panama, Ukraine, Iran, etc., créant une forme de submersion informationnelle de ses adversaires. Pensez-vous que cela soit le fruit d’une stratégie ?
Par lui, pas forcément, mais par son entourage, très certainement. Cette stratégie, énoncée dans le Projet 2025 de la Heritage Foundation, s’inspire de la formule célèbre de Steve Bannon, qui affirmait que « la véritable opposition, ce sont les médias », et que « la façon de les gérer est d’inonder la zone de merde ».
Lire aussi (2024) | Article réservé à nos abonnés Project 2025, la révolution conservatrice qui perturbe le recentrage tactique de Donald Trump
Aujourd’hui, l’administration Trump mène une guerre cognitive contre les journalistes, qui sont saturés d’un tir continu de décisions plus surréalistes les unes que les autres, de façon à les sidérer, à les désorienter et à réduire leur capacité à appréhender ce qui est à l’œuvre, et à réagir en conséquence.
De nombreux pays se sont dotés d’outils de veille pour lutter contre ces manipulations. Les régulateurs des médias ont-ils aussi un rôle à jouer ?
Malheureusement, les mesures de régulation ont plutôt été inefficaces jusqu’à présent. L’approche européenne a trop souvent reposé sur une démarche d’autorégulation qui ne fonctionne pas. En revanche, il faut tenter de rétablir un marché de l’information numérique libre et non faussé, en créant, par exemple, un média social européen à but non lucratif qui ne repose pas sur les dispositifs permettant d’exposer nos esprits à la guerre cognitive.
David Colon
Lien vers une conférence de David Colon : La guerre de l’Information