Santé

Analyse et retour expérience : Fake news le grand enjeu pour 2022


David Commarmond


Après de longs mois d’absence pour cause de pandémie, I-expo est l’un des premiers salons professionnels à enfin siffler le retour à la vie normale. Certes, le masque est toujours de rigueur, les injonctions à garder ses distances résonnent dans les haut-parleurs, mais la crainte a disparu des yeux pour être remplacée par des esquisses de sourires. Les conversations derrière le masque sont un petit brouhaha, mais dans l’ensemble, la crise sanitaire commence à devenir un souvenir.



Très attendue, la table ronde annuelle animée par Thibault Renard pour le Cybercercle, « Comment sélectionner des sources fiables et mieux détecter les infox et fake news ? Comment assurer la fiabilité de l’ensemble de vos sources d’informations ? »1, avec cette année Chine Labbé de NewsGuard, Aude Favre de la chaîne Aude WTFake et l’association Fake off, Julien Mardas de Buster.Ai et François Bernard Huyghes de l’IRIS. Table ronde divisée en deux temps, elle tente de définir le phénomène, comprendre pourquoi cela fonctionne, et enfin réfléchir aux solutions apportées.
 
Thibault Renard passe la parole à Chine Labbé de NewsGuard Europe. Lancée en en 2018, l’idée de base de la start-up américaine est de noter les sources d’informations et non plus que les articles. Les métriques choisies pour sélectionner les sites évalués sont les commentaires, les likes et les partages, car cela définit la viralité du contenu. L’humain est au cœur de la démarche, car les motivations des créateurs d’infox sont multiples, idéologiques, financières, étatiques, elles peuvent être protéiformes et les stratégies plus ou moins subtiles. Et bien souvent, la mésinformation est faite pour ressembler a du contenu d’actualité classique, et donc impossible a repérer pour des outils d’intelligence artificielle. Notre démarche ne vise pas à contrôler, censurer l’information, mais prévenir le lecteur du contenu qu’il va voir par un petit supplément d’information. À ce jour, nous avons produit une extension de navigateur disponible pour les internautes sur les principaux navigateurs (Chrome Firefox, Edge, etc.), nous avons aussi créé une base de données de la fiabilité de plus de 6.500 sources d’informations, que nous avons analysées en fonction de neuf critères apolitiques qui renvoient a leur crédibilité et leur transparence.
 
Nous fournissons notamment ces données à des marques et des annonceurs soucieux de ne pas financer des sites de désinformation, nous travaillons aussi avec des chercheurs sur des projets de recherche universitaire. Ce qui nous tient à cœur, c’est de remettre l’humain au centre de ce travail de classification des sources d’information. Pour vous donner une image, nous sommes l’équivalent de bibliothécaires qui, sur internet, aidons le lecteur à mettre en perspective le contenu auquel il va accéder, et a s’y retrouver dans cette jungle informationnelle.

Julien Mardas, créateur de Buster.Ai, une start-up française qui propose un ensemble de solutions soutenues par le deep learning pour accompagner les professionnels du fact-checking dans la vérification de l’information, et participer plus largement à la lutte contre la désinformation. Buster.Ai vient de créer le premier moteur intelligent permettant d’extraire, de vérifier, de qualifier et de synthétiser l’information parmi des millions de sources. Aujourd’hui, l’information est souvent présente sous la forme de flux, et donc bien plus éphémère. Il devient de plus en plus dur dur pour l’humain de discerner d’un coup d’œil une fausse information d’une vraie. De plus, des informations fausses ou erronées se mélangent parfois à des informations fiables, permettant de tromper facilement notre vigilance. C’est pour cette raison que Buster.Ai a développé des solutions s’appuyant sur le machine learning et notamment le deep learning pour seconder l’humain. “Nous avons développé des algorithmes d’indexation et de catégorisation de hauts niveaux. Et pour y parvenir, nos chercheurs en intelligence artificielle ont concouru et remporté des compétitions mondiales d’IA appliquées au fact-checking.”  
 
Nous nous adressons aux entreprises soucieuses de protéger leurs marques et leur image, en externe comme en interne. Pour nous, il existe deux grandes catégories d’informations : l’information officielle et l’information experte. Ces informations peuvent être perçues différemment en fonction de leur degré de viralité, et être transformées/perçues en fonction du canal utilisé. À ce niveau ce n’est plus l’information originale, mais l’émetteur, le canal et ici surtout les réseaux sociaux, qui influent sur la réception de l’information. L’analogie de l’information et du virus prend ici tout son sens. Sa diffusion hors de contrôle dégrade l’information. L’apport de l’intelligence artificielle permet d’établir une cartographie, un panorama de ses différents canaux d’informations, primaires, secondaires, officiels, ou ceux qui relèvent plus de la conversation.
 
L’outil va permettre comme un correcteur orthographique de proposer une aide rédactionnelle, afin d’inscrire l’article dans un corpus établi cohérent avec l’image de la marque. Ce processus est permanent, car nous réalisons en temps réel une mise à jour de nos bases de connaissances, en plusieurs langues, en langage naturel (NLP), mais aussi en langages multimodaux, c’est-à-dire même dans les images, dont le contenu textuel est caché aux yeux de l’internaute, mais qui est compris par le moteur de recherche.

Aude Favre journaliste, créatrice de la chaîne YouTube Aude WTFake, et co-fondatrice de l’association Fake off. Elle a travaillé avec le journaliste Sylvain Louvet sur le documentaire Fake news, la machine à fric” diffusé récemment dans l’émission Complément d’Enquête (France 2), explorant les financements cachés de la désinformation. En effet, les marques financent les sites de désinformation à hauteur de plus de 2 milliards d’euros par an via la publicité programmatique, selon la société NewsGuard.

Analyse et retour expérience : Fake news le grand enjeu pour 2022
François-Benard Huyghe de l’Iris pour comprendre le fonctionnement de ce nouvel revient sur la terminologie . Il est le créateur de l’observatoire de l’information.
 
Fake news : terme popularisé depuis 2016 avec l’élection de Trump. Les fake news ne sont pas de fausses informations au sens strict du terme (rapporter une réalité qui a ou n’a pas existé) mais elles revêtent plusieurs formes, et la notion d’infox, l’équivalent proposé dans la loi de 2018 contre la manipulation de l’information n’en rend pas bien compte. Des caractéristiques communes peuvent être dégagées. Tout d’abord les fakes concernent toujours un événement passé et terminé Pas un jugement, une idée ou anticipation. Si je dis que je n’ai pas volé les confitures de ma grand-mère quand j’avais 4 ans, que ce soit réel ou non pour parler de fake, il faudra démontrer cette affirmation, que cela ait eu lieu il y a 10 ans, 20 ans ou 60 ans… Ici, c’est la véracité des faits qui est en question. À l’inverse, en s’attaquant à des vérités de raison, comme à l’occasion de la pandémie, la fake news remettra en cause l’intention de l’auteur voire l’autorité de la science. Je ne peux pas prouver qu’une sorcière puisse voler sur un balai, mais les lois de la physique vont contre et m’en font douter . C’est une vérité de raison.
 
Pour qu’il y ait une fake news, il faut que l’on modifie les traces, qu’on manipule une photo, une vidéo, une fausse légende, que l’on bidouille un témoignage humain, « machin à dit que », « les témoins ont vu que ». Et qu’après une phase de « production » il faut qu’il y ait distribution notamment sur les réseaux sociaux, captation de l’attention, reprise et embellissement du fake dans des logiques de biais de confirmation. Voire développement de théories plus générales.
 
Les fake news ont toujours existé, ce qui change, c’est la facilité de production, la large diffusion, et surtout de réception qui s’est massivement développée, souvent dans un intérêt financier, mais ce n’est pas le seu.
 
Deuxième notion, la désinformation. La désinformation entre dans les dictionnaires soviétiques en 1953. C’est un processus politique par lequel une puissance ayant un intérêt stratégique introduit des informations de faux événements – généralement des crimes ou complots attribués à l’autre camp comme en son temps le fait que le virus du sida ait été issu d’un laboratoire secret US.- On a aussi suggéré que les russes soutiennent aux USA tant les Black lives Matters que l’autre camp, les suprématistes blancs : le but serait ici moins d’imposer la croyance d’un clan que de créer contradictions, tensions et subversion. Bref saboter les codes (politiques, moraux) de l’autre.
 
Troisième notion, le complotisme, notion philosophique, c’est-à-dire les mécanismes par lesquels nous interprétons les éléments vrais ou faux, et par lesquels nous les expliquons en les ramenant à une volonté unique et cachée. Ces mécanismes sont englobants, secret, un discours organisé, le hasard n’a pas sa place pour le partisan du complot : il y a toujours des coupables et de puissants complices dont les médias.. Ces trois notions se recoupent souvent partiellement, rarement complètement.
 
Pour esquisser un début de lutte contre les fake news et leurs producteurs, diverses stratégies sont possibles, mais ne remportent pas toutes l’adhésion de François-Bernard Huyghe. Lutter contre les fake news en leur opposant une force d’indignation ou en faisant pression sur les annonceurs et plus généralement sur les acteurs de la chaîne, ce n’est pas du fact-checking, de même que tenir un vague discours d’indignation contre le mensonge et les haines, peut nourrir la méfiance vis-à-vis de la parole officielle. Cela rejoint des tendances idéologiques qui se réclament de la déconstruction ou de la « révélation » des stéréotypes : d’où des situations comme celles qui ont été vécues au Canada : on finit par brûler des BD comme Astérix ou Tintin au nom des préjugés qu’ils encageraient et en s’attribuant ainsi le monopole de l’inquisition et de la censure (Ministère de la Vérité).

Aude Favre, la publicité en ligne dirigée vers les fake news représente 2,6 milliards de dollars. Ces milliards sont souvent acheminés par les sites de désinformation de manière involontaire, c’est une rente pour cet écosystème. La seconde source de financement est le financement participatif, via des sites comme Tipeee, Ulule, HelloAsso. Derrière certaines cagnottes, il y a encore un juteux business des goodies, où vous pouvez acheter toute une panoplie de casquettes, vêtements, accessoires estampillés de vos opinions. Si en France, 4 ou 5 acteurs trustent le marché, aux Etats-Unis ce sont des milliers d’acteurs qui maillent le territoire du financement participatif. Il y aussi des conférences, des livres, des abonnements qui ponctuent régulièrement l’année de rendez-vous.
 
En France Ulule et Tipeee, sont les deux acteurs les plus emblématiques du financement participatif, qui se sont diversement illustrés dans le financement de Hold-up. Documentaire qui a défrayé la chronique. Et qui en termes de financement a recueilli plus de 300.000 euros en tout. Ces deux plateformes ont eu des approches différentes, deux argumentations différentes. Tipeee a été pris dans la controverse sur son rôle et sa responsabilité, en se positionnant sur son rôle unique de plateforme de financement et sur sa neutralité dans les propos tenus par les porteurs de projets. Au vu des contenus, des conséquences potentielles, se pose la question de l’éthique et des moyens économiques et humains devraient peut-être être mis en place pour contrôler, responsabiliser les porteurs de projets dans leur parole. Attendre le passage de la justice comme argument est insuffisant pour prendre une sanction et bannir un porteur de projet.


Chine labbé rappelle qu’en Janvier dernier ces mêmes délires conspirationnistes ont aux Etats-Unis provoqué l’assaut du Capitole, tandis que quelques mois plus tôt, c’était le Reichstag de Berlin d’être aussi envahi.
 
Cinq cent sites publient quotidiennement des fausses informations sur le covid. Pourquoi ? Parce que c’est très lucratif. Bien sûr, des services propres ou des objets de protection qu’ils vendent sur leur site. La publicité programmatique qui a beaucoup de trou dans la raquette, et qui est une véritable rente des grandes marques, même Pfizer affichant ses publicités dans des sites contre ses propres produits. Sur près de 1000 milliards de recette publicitaire cela représente 1,7 % environ, ce qui est peu au regard des sommes totales, mais pour nombre d’acteurs, c’est une rente. Sans ce financement, nombre de sites disparaîtraient.
 
Comment vérifier les informations : les producteurs de fake news aiment s’adresser à nos émotions et pour cela tous les ressorts sont bons. La surprise, par exemple pour déclencher notre intérêt et la crédibilité de la source. Le ton de l’indignation ou de l’exaltation, notamment s’ils agissent par passion ou s’ils sont motivés par un canular. L’autorité, se poser la question « de quelle autorité se réclame-t-elle ? », la séduction de l’information, son côté flatteur, qui vous incite à croire que vous êtes différents des autres. Se méfier de soi-même est aussi pas mal. Voir aussi qui reprend cette information et qui fait circuler l’information. Le côté péremptoire de l’information est aussi un signal.

Julien Mardas revient sur la détection des informations. Deux informations presque similaires sont très difficiles à distinguer pour un algorithme et plus encore pour un humain, cela peut prendre des heures ou des jours. Or le temps est un facteur clé qui favorise la viralité. Une fois passé un certain temps et un taux de viralité, il est trop tard, le mal est déjà fait et la fausse information circule partout. Comprendre le potentiel viral d’une information et comprendre comment elle va évoluer est un enjeu majeur. Il y a un temps de bascule entre le moment où l’information reste en dessous du radar ne peut encore être définie comme vraie. De nombreux éléments sont à prendre en compte. Par exemple dans Wikileaks, parmi les millions de mails, il fallait s’assurer que les signatures des serveurs contenus dans les emails ne soient pas contrefaites, car derrière tous les mails portant les mêmes signatures pouvaient être suspectes et déclarées fausses. Ce qui aurait été une erreur. Ceci est d’autant plus délicat, que par nature les auteurs sont anonymes et que seuls les différents relais suivis par le parcours du mail peuvent servir d’éléments de signature. L’information officielle, (étatique, statistique, académique, encyclopédique), est toujours en retard par rapport aux réseaux sociaux. Pour les marques, l’enjeu réputationnel peut être à double tranchant. Une erreur de Bloomberg sur le départ d’un dirigeant de Vinci a pendant quelques heures déclencher une baisse de 30 % de l’action, nombre de membres du CA ont acheté massivement des actions, qui ont été revendues juste après le démenti. Ce qui aurait dû être un délit d’initié, n’a pu être sanctionné comme tel. Bloomberg a été sanctionné par la haute autorité des marchés de 5 millions d’euros, une goutte d’eau pour cette entreprise. Les dirigeants, eux n’ont pas été inquiétés. Pour Vinci cette histoire tourne bien. Mais l’issue aurait pu être tout autre. Le dommage réputationnel touche toutes les marques.
 
La publicité programmatique manque de transparence, les Gafam n’ont aucun intérêt à baisser le trafic des visiteurs, car cela influe sur le taux de conversion et sur le nombre de milliers de vues, car elles baisseraient leurs revenus. Quelques voix et un cadre légal commencent à émerger qui pour condamner ces comportements. Aujourd’hui il est donc très difficile pour dire si une information est vraie ou fausse. C’est pourquoi la certification des sources est très importante. « De notre point de vue, il n’y a pas de vérité tout est faux, ce n’est qu’une question de temps ». Il faut donc analyser.
 
C’est le sens de la recherche : L’information est supportée par ses sources, réfutée par ses sources, ou nous n’avons pas assez d’informations. Et tous les acteurs peuvent comprendre quelles sont les sources qui sont supportées, celles réfutées. Les nouvelles sources sans notoriété, qui sont expertes, peuvent très rapidement apporter des choses nouvelles. La source officielle peut se tromper, les discours dans le cadre de la Covid en sont le parfait exemple, l’algorithmie permet d’assister l’humain, pour arriver au résultat que l’on souhaite.
Analyse et retour expérience : Fake news le grand enjeu pour 2022

Résume

The highly anticipated annual roundtable discussion, hosted by Thibault Renard for Cybercercle, titled “How to select reliable sources and better detect misinformation and fake news? How to ensure the reliability of all your information sources?” featured Chine Labbé from NewsGuard, Aude Favre from the YouTube channel Aude WTFake and the association Fake off, Julien Mardas from Buster.Ai, and François Bernard Huyghes from IRIS this year. The roundtable was divided into two parts, aiming to define the phenomenon, understand why it works, and finally reflect on the solutions provided.
 
Thibault Renard handed over to Chine Labbé from NewsGuard Europe. Launched in 2018, the basic idea of the American start-up is to rate information sources rather than just articles. The metrics chosen to select the evaluated sites are comments, likes, and shares, as these define the virality of the content. The human is at the heart of the approach, as the motivations of misinformation creators are multiple, ideological, financial, state, they can be protean and the strategies more or less subtle. Misinformation is often made to resemble classic news content, making it impossible to spot for artificial intelligence tools. Their approach does not aim to control, censor information, but to warn the reader of the content they will see with a little extra information. To date, they have produced a browser extension available to Internet users on the main browsers (Chrome Firefox, Edge, etc.), they have also created a database of the reliability of more than 6,500 information sources, which they have analyzed based on nine apolitical criteria that refer to their credibility and transparency.
 
They provide these data to brands and advertisers who are concerned about not financing misinformation sites, they also work with researchers on academic research projects. What is important to them is to put the human back at the center of this work of classifying information sources. To give you an image, they are the equivalent of librarians who, on the internet, help the reader to put the content they are going to access into perspective, and to find their way in this informational jungle.