GAFA : les géants du numérique au coeur de la guerre informationnelle

A la dernière European Cyber Week de Rennes, un après-midi entier était consacré aux « cyber menaces cognitives ». En clair : les guerres d’influence que se livrent des Etats au travers des réseaux sociaux, soulignant l’implication grandissante en matière politique d’acteurs privés.

Logos des GAFA

Les logos des GAFA sur fond de drapeau européen. (Une photo de décembre 2020.)

JUSTIN TALLIS / AFP

« Nous avons interféré [dans le processus électoral américain, ndlr], nous interférons et nous continuerons à interférer, de manière appliquée, précise et chirurgicale« . Cet aveu en forme de provocation, datant de début novembre 2022, est d’Evgueni Prigojine, le fondateur du groupe de mercenaires russes Wagner, actif en Syrie, en Afrique et actuellement en Ukraine. L’implication russe dans le scrutin présidentiel de 2016 aux Etats-Unis, à coup de fausses nouvelles, manipulations et autres faux comptes sur Facebook ou YouTube, est connue et documentée, notamment au travers du rôle d’un organisme appelé Internet Research Agency basé à Saint-Petersbourg. Mais elle n’avait jamais été ainsi assumée.

Cette sortie d’Evgueni Prigojine n’a pas manqué d’être mentionnée le 15 novembre dernier [2022, ndlr] à la dernière European Cyber Week, à Rennes, dans le cadre d’un après-midi de tables rondes et d’exposés consacrés aux « cyber menaces cognitives ». A savoir l’usage immodéré qui est désormais fait des réseaux sociaux dans les opérations d’influence et les tentatives de déstabilisation d’un Etat par un autre. Une démarche qui exploite les possibilités de ciblage et de personnalisation des contenus, à l’origine destinés aux publicités mais détournées pour manipuler les populations et déstabiliser un corps social.

L’influence, fonction stratégique en matière de défense

« C’est une problématique inquiétante, estime Bernard Claverie, spécialiste de psychologie et de sciences cognitives à l’Institut polytechnique de Bordeaux. Cette guerre psycho-socio-informationnelle a pour cible la façon de penser des gens : elle vise à fragmenter, isoler, délégitimer ». Signe d’un certain retard pris par la France en la matière, déstabilisée récemment en Afrique par des opérations russes justement, le président de la République Emanuel Macron a déclaré, le 9 novembre, que l’influence devait être une fonction stratégique en matière de défense.

Mais cette dimension nécessite de faire appel à des compétences autre que purement technologique et militaire : art de la narration, maîtrise des biais cognitifs, technique de persuasion issues de la publicité. « Ce terrain de bataille est immatériel et se caractérise par une présence d’acteurs privés dotés de moyens et de capacité de calcul bien supérieures à celles du ministère des armées » note le colonel Philippe Baillé, adjoint au chef du pôle opérations au Commandement de Cyberdéfense. Des acteurs capables de déconnecter le compte d’un président de la république américain (Donald Trump) sans que personne ne puisse rien y faire, tout en laissant en ligne des comptes problématiques de Talibans ou, actuellement, de la diplomatie russe diffusant nombre de fausses informations concernant la guerre en Ukraine.

Une « guerre » d’avis sur Google

Tout n’est d’ailleurs pas affaire de mensonge. Concernant la guerre en Ukraine, justement, il est beaucoup fait mention, sur les réseaux sociaux (en particulier sur Telegram), de cyberattaques russes. « Or, à force de les voir, ces mentions peuvent servir à susciter de l’agacement, de l’inquiétude, de la panique, de la défiance et des reproches envers les institutions qui en sont victimes et n’ont pas su se protéger » explique Marie-Gabrielle Betran, doctorante à l’Institut Français de Géopolitique (Paris).

En octobre 2022, une vidéo montrant le gérant du restaurant parisien Le Cozy Montparnasse lancer « Vive Poutine ! » à deux réfugiées ukrainiennes, a provoqué une « guerre » entre avis positifs et négatifs sur Google Maps concernant cet établissement, avec la publication de milliers de commentaires en quelques heures. Sans compter, sur les réseaux sociaux (Twitter, Telegram, Vkontake…), des versions contradictoires de l’histoire, selon qu’elle était relayée par des comptes pro-russes ou pro-ukrainiens. Bref, une véritable lutte informationnelle menée par chacun des camps.

« Nous avons interféré [dans le processus électoral américain, ndlr], nous interférons et nous continuerons à interférer, de manière appliquée, précise et chirurgicale« . Cet aveu en forme de provocation, datant de début novembre 2022, est d’Evgueni Prigojine, le fondateur du groupe de mercenaires russes Wagner, actif en Syrie, en Afrique et actuellement en Ukraine. L’implication russe dans le scrutin présidentiel de 2016 aux Etats-Unis, à coup de fausses nouvelles, manipulations et autres faux comptes sur Facebook ou YouTube, est connue et documentée, notamment au travers du rôle d’un organisme appelé Internet Research Agency basé à Saint-Petersbourg. Mais elle n’avait jamais été ainsi assumée.

Cette sortie d’Evgueni Prigojine n’a pas manqué d’être mentionnée le 15 novembre dernier [2022, ndlr] à la dernière European Cyber Week, à Rennes, dans le cadre d’un après-midi de tables rondes et d’exposés consacrés aux « cyber menaces cognitives ». A savoir l’usage immodéré qui est désormais fait des réseaux sociaux dans les opérations d’influence et les tentatives de déstabilisation d’un Etat par un autre. Une démarche qui exploite les possibilités de ciblage et de personnalisation des contenus, à l’origine destinés aux publicités mais détournées pour manipuler les populations et déstabiliser un corps social.

L’influence, fonction stratégique en matière de défense

« C’est une problématique inquiétante, estime Bernard Claverie, spécialiste de psychologie et de sciences cognitives à l’Institut polytechnique de Bordeaux. Cette guerre psycho-socio-informationnelle a pour cible la façon de penser des gens : elle vise à fragmenter, isoler, délégitimer ». Signe d’un certain retard pris par la France en la matière, déstabilisée récemment en Afrique par des opérations russes justement, le président de la République Emanuel Macron a déclaré, le 9 novembre, que l’influence devait être une fonction stratégique en matière de défense.

Mais cette dimension nécessite de faire appel à des compétences autre que purement technologique et militaire : art de la narration, maîtrise des biais cognitifs, technique de persuasion issues de la publicité. « Ce terrain de bataille est immatériel et se caractérise par une présence d’acteurs privés dotés de moyens et de capacité de calcul bien supérieures à celles du ministère des armées » note le colonel Philippe Baillé, adjoint au chef du pôle opérations au Commandement de Cyberdéfense. Des acteurs capables de déconnecter le compte d’un président de la république américain (Donald Trump) sans que personne ne puisse rien y faire, tout en laissant en ligne des comptes problématiques de Talibans ou, actuellement, de la diplomatie russe diffusant nombre de fausses informations concernant la guerre en Ukraine.

Une « guerre » d’avis sur Google

Tout n’est d’ailleurs pas affaire de mensonge. Concernant la guerre en Ukraine, justement, il est beaucoup fait mention, sur les réseaux sociaux (en particulier sur Telegram), de cyberattaques russes. « Or, à force de les voir, ces mentions peuvent servir à susciter de l’agacement, de l’inquiétude, de la panique, de la défiance et des reproches envers les institutions qui en sont victimes et n’ont pas su se protéger » explique Marie-Gabrielle Betran, doctorante à l’Institut Français de Géopolitique (Paris).

En octobre 2022, une vidéo montrant le gérant du restaurant parisien Le Cozy Montparnasse lancer « Vive Poutine ! » à deux réfugiées ukrainiennes, a provoqué une « guerre » entre avis positifs et négatifs sur Google Maps concernant cet établissement, avec la publication de milliers de commentaires en quelques heures. Sans compter, sur les réseaux sociaux (Twitter, Telegram, Vkontake…), des versions contradictoires de l’histoire, selon qu’elle était relayée par des comptes pro-russes ou pro-ukrainiens. Bref, une véritable lutte informationnelle menée par chacun des camps.

Des critères de modération opaques

De fait, la question de l’implication politique et, entre les lignes, de la régulation des Facebook, Twitter, Google et autre a traversé nombre d’interventions de l’European Cyber Week.

Longtemps opaques sur leur techniques et critères de modération de contenus, les plateformes ont évolué face à la pression des Etats. « Il y a un tournant au printemps 2018, quand Google, Facebook, commencent à publier des rapports de transparence sur la manière dont ils modèrent, explique Romain Badouard, maître de conférence en sciences de l’information à l’Institut Français de Presse (Paris). Ces initiatives ont une dimension marketing mais c’est mieux que rien ».

Problème : confrontées à l’explosion des contenus, ces firmes technologiques s’en remettent essentiellement à une modération automatisée, par intelligence artificielle, avec des algorithmes entraînés sur la base de contenus déjà retirés. « Cette technique a d’abord été utilisée pour les contenus concernant le terrorisme, puis a été généralisée au reste ».

Or, l’IA peut s’avérer performante sur des images (violence, nudité), elle l’est beaucoup moins sur des contenus textuels haineux, des mots, car il faut un contexte. Il est ainsi beaucoup plus facile de passer sous les radars.« Les groupes d’extrême droite emploient par exemple le terme de ‘Suédois’ pour parler de l’immigration d’origine africaine, par ironie », pointe Romain Badouard.

La technique du « shadow banning »

Et vu ses failles, cette technique de modération entraîne nombre de faux positifs. Elle est aussi assez peu opérantes sur les fausses informations et le mensonge, lesquels ne sont en eux-mêmes pas interdits par la loi et nécessitent une vérification « manuelle ».

D’où une autre approche, appelé le « shadow banning ». A savoir faire en sorte qu’un contenu soit moins recommandé, donc moins partagé, sans pour autant le retirer. Ce qui revient, pour YouTube, Facebook ou d’autres, à jouer un rôle qu’ils ont toujours refusé d’endosser : celui d’éditeurs au lieu de « simple » hébergeur. « Les plateformes ont la capacité de dire ce qu’elles ont envie de nous dire, on ne peut pas aller dans leurs serveurs voir ce qu’il se passe, vérifier si les données qu’elles fournissent aux régulateurs nationaux sont bien les bonnes », déplore Romain Badouard.

Dans le contexte de tensions géopolitiques, ce rôle peut même mettre ces sociétés en porte-à-faux.« On a vu Facebook fermer des comptes de l’armée française utilisés dans le cadre d’opérations d’influence en Afrique face aux Russes, note Charles Thibout, doctorant en science politique et chercheur associé à l’Institut de relations internationales et stratégiques (Iris), avec à la fois le risque de nuire à une opération militaire et celui de s’aliéner un agent du pouvoir ».

Difficiles, en somme, pour des plateformes conçues à l’origine pour diffuser de la publicité ciblée, d’assumer le rôle d’une arme de guerre.

Source: Sciencesetavenir.fr
laissez un commentaire