Que serait internet sans matériel visuel ? Il se présenterait sous la même forme qu’à ses débuts, lorsque les circuits de communication étaient encore trop lents pour supporter les volumes d’images et de vidéos que nous consommons aujourd’hui à l’échelle mondiale. Par ailleurs, les éléments visuels et les réseaux sociaux sont devenus indissociables de la sphère politique actuelle. En effet, mèmes et autres combinaisons de texte et image sont devenus incontournables pour les partis, les policitien-ne-s, les médias et les organisations de la société civile. Les images et les vidéos sont maintenant les éléments centraux de toute campagne électorale numérique, aussi bien aux États-Unis, qu’au Brésil, au Ghana et dans le monde entier. Elles constituent une méthode simple pour transmettre des messages à son public, et fonctionnent parfois même sans texte d’accompagnement. Il n’est donc pas étonnant qu’une grande quantité d’informations fallacieuses soient diffusées sur internet au moyen d’images et de vidéos.

TOUT CECI N’A RIEN DE NOUVEAU !

Il est essentiel de préciser ici le contexte historique des contenus manipulés et de la propagande des temps modernes. En définitive, faits altérés, récits de complots, conspirationnisme et mensonges ont toujours joué un rôle de taille d’un point de vue historique. Dès le XIXe siècle, des images photographiques ont été utilisées pour donner l’impression d’une réalité, qui n’existait pas en tant que telle[1]. Parmi les exemples éminents, citons l’image emblématique du drapeau soviétique sur le toit du palais du Reichstag après sa prise en 1945. Dans les faits, aucun-e photographe n’était sur place au moment de l’assaut. Deux éléments font que cette image photographique de Jewgeni Chaldej n’est pas une originale. En effet, sur mandat de Staline, elle a été prise plus d’un jour après l’évènement, puis retravaillée : Jewgeni Chaldej a ajouté, d’une part, les nuages de fumée et, d’autre part, les montres (potentiellement volées) au poignet du soldat au premier plan[2]. Les nazis avaient assassiné plusieurs membres de sa famille, et le photographe se voyait comme un propagandiste de la bonne cause.

Sammlung Ernst Volland/Heinz Krimmer/Jewgeni Chaldej

Jewgeni Chaldej, hissage du drapeau soviétique sur le palais du Reichstag, Berlin, 2 mai 1945 © Collection Ernst Volland/Heinz Krimmer/Jewgeni Chaldej, source : https://blogs.taz.de/vollandsblog/2008/07/23/die_flagge_auf_dem_reichstag_teil_3_das_manipulierte_foto/

Sammlung Ernst Volland/Heinz Krimmer/Jewgeni Chaldej

Jewgeni Chaldej, hissage du drapeau soviétique sur le palais du Reichstag, version retravaillée, Berlin, 2 mai 1945 © Collection Ernst Volland/Heinz Krimmer/Jewgeni Chaldej, source : https://blogs.taz.de/vollandsblog/2008/07/23/die_flagge_auf_dem_reichstag_teil_3_das_manipulierte_foto/

Même les images ayant été modifiées à des fins satiriques ne sont pas toujours reconnaissables en tant que telles pour le public. Une image de l’ancien président américain George W. Bush tenant un livre à l’envers dans une école texane, publiée dans le but de se moquer de lui, a exercé son effet bien au-delà de l’année 2002. Cette forme de manipulation des images consiste en une petite intervention produisant toutefois un grand effet. Le message de l’image et la mise en scène patriotique sont altérés, et George W. Bush raillé[3].

Associated Press

Image photographique manipulée de George W. Bush dans une école de Houston en 2002 : https://www.snopes.com/fact-check/bush-upside-book/ originale : Associated Press.

De nos jours, les réseaux sociaux permettent, en principe, à tout le monde d’atteindre un vaste public en peu de temps. Les contenus manipulés peuvent se répandre à grande vitesse au-delà de (presque) toutes les frontières. Par ailleurs, il est devenu plus facile de générer de tels contenus : aujourd’hui, plus personne n’a besoin d’un laboratoire photo, d’un studio de télévision ou de logiciels onéreux de traitement de l’image – un smartphone ou un ordinateur portable et une connexion internet suffisent.

 

QUI SE CACHE DERRIÈRE LES CONTENUS MANIPULÉS ?

Nous vivons dans une ère où ce sont les utilisateur-trice-s qui génèrent les contenus sur le net. Par conséquent, l’origine des contenus manipulés et des infox ne peut pas toujours être retracée. Des utilisateur-trice-s de WhatsApp ou de Facebook Messenger peuvent, par exemple, en être à la source. Les conversations privées sont invisibles pour les personnes extérieures, si bien qu’il est parfois impossible de savoir si un contenu manipulé n’a pas été diffusé dans un groupe Facebook ou un groupe de chat fermé avant d’être publié sur Twitter ou une page Facebook. Des infox virales se répandent sur toutes les plateformes et dans tous les groupes sociaux possibles. Ainsi, un contenu manipulé, créé par exemple par un-e utilisateur-trice de Facebook, qu’iel aura ensuite rendu visible uniquement pour ses ami-e-s, pourra se retrouver jusque sur les canaux de réseaux sociaux de politicien-ne-s : les frontières sont indistinctes.

Les auteur-trice-s de contenus manipulés ou de désinformation peuvent être motivé-e-s par différentes raisons, voire une combinaison de raisons. On retrouvera, entre autres, des motifs politiques, pour se présenter sous un meilleur jour ou pour nuire à ses opposant-e-s. Puis, il y a les intérêts financiers. Les contenus manipulés et les informations fallacieuses pourront être utilisé-e-s en lien avec la santé, pour vendre des promesses de guérison, par exemple via des compléments alimentaires, voire des remèdes inefficaces, vendus sous forme de médicaments.

Les trolls diffusent eux aussi des contenus manipulés. La plupart du temps, l’objectif est de semer le chaos ou de blesser des personnes, au même titre que les commentaires haineux. Ils profitent souvent d’évènements qui engendrent déjà la confusion, tels que des actes de violence ou des catastrophes naturelles. Dans le cadre d’attentats terroristes et de crises de folie meurtrière, les trolls publient régulièrement des photos de prétendu-e-s coupables, qui en fait n’en sont pas. De la même manière, à la suite des attaques islamistes lors du concert d’Ariana Grande en mai 2017 à Manchester, des trolls ont diffusé sur Twitter des photos de prétendu-e-s jeunes disparu-e-s, qui n’avaient jamais disparu. Parmi les trolls et groupes de trolls plus connus figurent des acteur-trice-s de la scène politique de droite, qui sont d’ailleurs très actifs dans la diffusion d’idéologies d’extrême droite.

 

LES DEEPFAKES FONT-ILS ENCORE EMPIRER LA SITUATION ?

Depuis quelques temps, nous sommes mis en garde contre la menace des deepfakes (ou « hypertrucages »). Il s’agit d’images, de vidéos ou de contenus audio générés par logiciel. Il est, entre autres, possible de créer des visages de manière complètement artificielle[4] ou des vidéos de personnes disant ce que l’on aura décidé de leur faire dire ou se retrouvant dans des situations embarrassantes. Les possibilités d’utilisation de ces technologies sont variées. Ainsi, elles pourraient être employées pour produire des vidéos montrant des personnes à une manifestation à laquelle elles ne se sont jamais rendues. Ou alors pour attribuer à des politicien-ne-s ou à des militant-e-s des propos, qu’iels n’ont jamais formulé de cette manière ou les mettre dans des contextes où iels ne se sont jamais retrouvé-e-s.

Channel 4

Ce deepfake mettant en scène la reine d’Angleterre est inspiré de son discours de Noël et ironise explicitement l’attribution de propos. La danse TikTok et les glitches (perturbations aléatoires qui se manifestent par des déformations de l’image) dans cette vidéo montrent clairement qu’il s’agit d’un deepfake. Videostill : Channel 4, Deepfake Queen 2020 Alternative Christmas Message (en anglais), YouTube, 25.12.2020, source : https://www.youtube.com/watch?v=IvY-Abd2FfM

À l’avenir, nous aurons impérativement besoin d’outils pour nous aider à reconnaître les deepfakes, car ces derniers ne cessent de s’améliorer. La plupart des deepfakes sont, pour l’instant, reconnaissables en tant que tels parce que les personnes dans les vidéos ont l’air ‹ bizarres › lorsqu’elles tournent la tête ou parce qu’elles ne clignent pas assez souvent des yeux. De tels détails pourront cependant être améliorés à court ou long terme. Jusqu’ici, il est impossible pour les deepfakes de reproduire les mimiques ou les gestes caractéristiques développés individuellement par chaque personne et qui forment une sorte d’empreinte digitale.

L’utilisation des deepfakes est toutefois d’ores et déjà problématique. En 2019, des arnaqueur-euse-s ont réussi à dérober 243 000 dollars américains à une entreprise grâce à un appel téléphonique truqué[5]. Iels ont utilisé la technologie deepfake pour se faire passer pour le directeur général. Des outils reposant sur cette technique sont également utilisés pour générer du matériel pornographique. En effet, on produit des images et des vidéos de ce type, qui mettent en scène avant tout des femmes, sans avoir obtenu leur consentement préalable. À l’automne 2020, un bot informatique sur Telegram a été utilisé pour produire des images de nudité truquées à partir de centaines de milliers de photos en Russie et en Europe de l’Est : les 680 000 femmes concernées n’étaient pas au courant[6]. Outre l’atteinte personnelle, de tels actes peuvent engendrer d’innombrables autres conséquences désagréables pour les victimes : des contacts malvenus au harcèlement, en passant par des problèmes au sein de sa famille, dans le cadre de sa formation ou sur son lieu de travail. De tels deepfakes sont également employés pour faire chanter les personnes concernées.

Il est manifestement important de reconnaître les dangers des deepfakes et d’anticiper leur impact futur. Mais il est également vrai que de nombreux contenus manipulés ne sont même pas générés par des logiciels de traitement d’image et qu’il en existe tout un éventail, des deepfakes aux cheap fakes. Le procédé est en effet bien plus simple : souvent, on prend une image ou une vidéo réelle pour la sortir de son contexte et la diffuser, en l’accompagnant d’une histoire inventée. Les cheap fakes fonctionnent très bien et, contrairement aux deepfakes, ils peuvent être réalisés avec peu de moyens. Ainsi, des cheap fakes ont, par exemple, été utilisés en 2020 pour répandre des fausses nouvelles sur la pandémie de coronavirus[7]. Un phénomène très répandu, à l’instar des images photographiques sorties de leur contexte, qui ont circulé après l’élection présidentielle ougandaise en janvier 2021. Des utilisateur-trice-s de Facebook ont diffusé des images censées représenter des incidents en Ouganda. Toutefois, il s’agissait d’habitant-e-s du Honduras qui tentaient de traverser la frontière pour se rendre au Guatemala[8].

Agencia EFE

Images photographiques de la frontière guatémaltèque, sorties de leur contexte par un groupe Facebook pour les attribuer faussement à l’Ouganda, nom anonymisé par l’autrice, original : Agencia EFE

L’exemple ci-dessous de la Thaïlande illustre également bien la rapidité avec laquelle des contenus manipulateurs peuvent circuler. Des photos prises en janvier 2020 ont ensuite été retirées de leur contexte pour faire croire que les écolier-ère-s qui y figurent protestaient contre les manifestant-e-s prodémocratie. Dans les faits, ces images datent de quelques mois avant les premières contestations de ce mouvement lancé par des jeunes. Elles ont néanmoins été partagées et diffusées en tant que telles des centaines de fois[9].

AFP Check

Publication Facebook trompeuse de photos d’écolier-ère-s de Nonthaburi (Thaïlande) retirées de leur contexte, image : AFP Check, original : Debsirin Nonthaburi School Student Committee

RECONNAÎTRE LES CONTENUS MANIPULÉS

Il est possible d’identifier de nombreuses images manipulées ou sorties de leur contexte en juste quelques étapes. Les outils à cet égard sont même mis à disposition gratuitement. L’une des possibilités consiste à décrire les éléments de l’image et à les repérer au moyen d’un moteur de recherche. Sur la photo ci-dessous figurent des cercueils. Le texte établit un lien avec la pandémie de coronavirus et les personnes qui en sont décédées en Italie. Pour rechercher les contextes possibles de l’image, on pourra saisir dans un moteur de recherche les mots-clés « cercueils » et « Italie » ainsi que « fake ». S’il y a eu une vérification des faits, on la retrouvera de cette manière. Il vaut parfois la peine de rechercher une nouvelle fois les mêmes mots en anglais. Il y a aussi le « Fact Check Explorer » de Google[10], qui permet d’explorer les vérifications de faits de divers sites à cet égard (même si ce n’est pas de tous) ainsi que de différents pays. Dans notre exemple, il en ressort que la photo a réellement été prise en Italie, mais pas en 2020. Si le pays déplorait alors bel et bien plus de 10 000 décès[11], l’image en question date quant à elle de 2013, lorsqu’un bateau rempli de personnes en fuite a chaviré au large de l’île de Lampedusa, faisant plus de 300 décès[12].

Parmi les autres moyens de vérification figure ce qu’on appelle la « recherche d’image inversée ». Cette dernière permet notamment de retrouver des pages internet où la même image a été téléchargée ou alors des images présentant des similitudes. Ainsi, on pourra, par exemple, vérifier la photo ci-dessous, censée représenter l’initiatrice de « Fridays for Future » Greta Thunberg en compagnie de George Soros. Ce milliardaire et philanthrope hongro-américain est un ennemi tout désigné de la Nouvelle Droite, qui lui attribue un rôle dans de nombreux récits de complot, souvent empreints d’antisémitisme. En sa qualité de donateur soutenant différent-e-s organisations et politicien-ne-s progressist-e-s et étant donné sa présence dans des projets médiatiques, George Soros est pour ainsi dire une épine dans le pied de ces acteur-trice-s. Une photo avec Greta Thunberg revient donc à dire que George Soros encourage l’activisme environnemental de Greta Thunberg. Cette image peut être vérifiée via les étapes suivantes :

  1. Cliquer avec le bouton droit et copier l’adresse de l’image (et non l’image en soi) ou télécharger l’image.
  2. Ouvrir l’un des moteurs de recherche suivants : Google, Yandex ou Bing.
  3. Cliquer sur « Images » dans le moteur de recherche en question.
  4. Cliquer sur l’icône représentant un appareil photo (sur Bing, l’icône représente un viseur d’appareil photo).
  5. Insérer l’adresse de l’image ou télécharger l’image.
  6. Parcourir les résultats.

Dans certains cas, il faudra cliquer sur différentes pages avant de trouver une indication pertinente. En effectuant une recherche pour l’image de Greta Thunberg, il apparaîtrait par exemple, que la photo a été retouchée[13]. Dans la version originale[14], Greta pose avec l’ancien vice-président américain Al Gore, qui s’engage en faveur de la protection climatique. Parfois, il est également utile d’essayer avec un autre moteur de recherche. Les résultats divergents sont imputables aux logiciels de reconnaissance d’images, qui fonctionnent différemment selon le moteur de recherche. À titre d’exemple, la reconnaissance faciale est souvent plus efficace sur Bing et Yandex que sur Google.

Twitter

Photo manipulée (à gauche) de Greta Thunberg et George Soros par rapport à l’originale (à droite) où figurent Al Gore et Greta Thunberg. Image (droite) : compte Instagram de Greta Thunberg, source : https://www.instagram.com/p/BsBZea6hebZ/

Greta Thunberg

Photo manipulée (à gauche) de Greta Thunberg et George Soros par rapport à l’originale (à droite) où figurent Al Gore et Greta Thunberg. Image (droite) : compte Instagram de Greta Thunberg, source : https://www.instagram.com/p/BsBZea6hebZ/

La technologie de reconnaissance faciale[15] de moteurs de recherche tels que Yandex n’est depuis bien longtemps plus l’apanage des expert-e-s en vérification : elle a fait émerger, entre autres, les vidéos TikTok, qui recommandent la recherche d’image inversée aux utilisateur-trice-s afin qu’iels trouvent leur « jumelleau », ou plutôt une personne qui leur ressemble énormément.

Il arrive que des captures d’écran truquées d’articles médiatiques ou de publications personnelles soient diffusées sur d’autres pages de réseaux sociaux. Il est alors utile de saisir le gros titre ou le texte de l’image dans un moteur de recherche. On veillera ici à mettre le texte entre guillemets pour que les termes saisis soient recherchés dans cet ordre précis. Sans guillemets, tous les mots sont recherchés indépendamment de l’endroit où ils apparaissent dans le texte.

Avant de diffuser une photo ou une vidéo émotionnelle, le plus important est de marquer une courte pause pour réfléchir à sa plausibilité. Souvent, il suffit d’y regarder d’un peu plus près pour se rendre compte que quelque chose cloche. Si de nombreux contenus manipulés fonctionnent tellement bien, c’est parce qu’ils suscitent une première réaction affective et sont diffusés sur le coup de la colère, de la peur ou de la tristesse.