Personnalités

Trois questions à Guillaume Gadek, Expert en IA et désinformation. Airbus Defence and Space


David Commarmond
Jeudi 25 Avril 2024


Au-delà des "deepfakes", la problématique consiste plutôt à outiller la veille informationnelle. Qu'une vidéo soit vraie ou fausse, au sens technique (deepfake) ou sémantique (mensonge), il est nécessaire d'en constater les effets concrets, tel un dénigrement d'une marque commerciale ou un appel à la haine ciblée.



Pouvez-vous nous évoquer votre retour d'expérience lors de cette table ronde.

Cette table ronde sur le thème de la fiabilité de l'information et les défis soulevés par l'utilisation de l'IA générative était une première pour moi. J'ai plutôt l'habitude de voir ces sujets évoqués lors de conférences scientifiques sur l'intelligence artificielle, ou encore lors de colloques plus confidentiels sur les enjeux éthiques et géopolitiques. 
 

J'ai constaté que l'audience était très fortement intéressée, tant par l'impact direct sur nos métiers, que par les enjeux de citoyenneté et de souveraineté. Je pense notamment à quelques auditeurs de l'IHEDN qui ont soulevé des questions très pertinentes. Je pense que le public était également curieux de découvrir qu'Airbus est bien positionné sur ces sujets.


Quel message avez-vous voulu faire passer ?

La diffusion d'informations dont la véracité est discutable est parfois ressentie comme une crise, voire comme une tempête inarrêtable. Les technologies utilisées sont complexes. Elles évoluent très rapidement, et il est difficile d'affirmer qu'un mode opératoire est "impossible" dès lors qu'un adversaire vous veut du mal. 
 

Certes, l'IA rend déjà possibles et accessibles un grand nombre d'outils de manipulation de l'information. La technologie fournit également un grand nombre de solutions, par exemple pour détecter et qualifier les contenus générés ou manipulés par IA. C'est bien dans cette logique que l'Union Européenne a confié à Airbus le pilotage du projet EUCINF via le Fonds de Défense Européen. 
 

Mais finalement, au-delà des "deepfakes", la problématique consiste plutôt à outiller la veille informationnelle. Qu'une vidéo soit vraie ou fausse, au sens technique (deepfake) ou sémantique (mensonge), il est nécessaire d'en constater les effets concrets, tel un dénigrement d'une marque commerciale ou un appel à la haine ciblée. La prise en compte de tous les événements impactant une image de marque doit dépasser la notion de vrai ou faux. L'outillage informatique, dont l'IA fait partie, permet alors de construire une vue rationalisée des techniques de persuasion, thématiques et controverses, ainsi que des acteurs, sources et impacts communicationnels sur un sujet donné. Les bonnes pratiques du domaine, notamment humaines, demeurent pertinentes et même cruciales : il faut toujours croiser l'information, la qualifier, l'interpréter et décider des conséquences au regard de notre mission.
 

Pour obtenir cet outillage, il n'y a pas de solution miraculeuse. L'IA n'est pas un monolithe fiable et généraliste ; au contraire il s'agit plutôt d'une myriade de solutions techniques spécifiques, chacun réalisant sa mission. Ni Airbus ni aucun autre acteur n'aurait vocation à développer et coder cette solution seul ; au contraire nous souhaitons développer un écosystème de partenaires, seul à même de fournir à la fois l'outillage technique et la réflexion pluri-disciplinaire requis pour relever les défis de la guerre informationnelle. C'est bien cette logique que nous déployons dans le projet EUCINF avec nos partenaires et utilisateurs finaux européens.


Si nous devions retenir trois conseils, quels seraient-ils ?

Les campagnes de désinformation ont tendance à nous faire perdre pied. Mon conseil consiste à se réassurer : savoir qui nous sommes, les intérêts que nous défendons et les valeurs sur lesquelles nous n'avons aucune raison de tergiverser. La facilité d'enfreindre la loi, de fabriquer des faux, de propager des mensonges ou de la diffamation ne doit pas nous aveugler : les infractions doivent être punies, et les faux dénoncés. 
 

Un deuxième conseil porte sur la curiosité et l'émerveillement. Il est assez simple, et réjouissant, d'aller jouer avec les nouveaux outils à base d'IA. J'encourage tous mes interlocuteurs à "perdre" une heure à rédiger de la poésie avec un Large Language Model. Ces outils sont vraiment accessibles, et il vaut mieux s'en faire une opinion personnelle en testant leurs limites plutôt que de croire toutes les vidéos publicitaires à leur sujet.
 

En troisième conseil, je préconise de continuer de travailler sur les pratiques du métier : chercher, recueillir, qualifier, croiser, fusionner l'information doivent rester les réflexes de base de nos métiers. L'outillage technique n'est qu'un moyen d'action : tout commence par des praticiens motivés, rigoureux et curieux. 


En quelques semaines, avez-vous vu de nouveaux risques émerger / A contrario, les solutions apportées (IA act et autres) sont-elles des solutions pertinentes.

Plutôt que des nouveaux risques, nous voyons de mieux en mieux l'étendue des moyens d'actions que nos adversaires (potentiels ou déclarés) s'autorisent à déployer. Il devient donc toujours plus difficile de traiter les sources de données ouvertes "à la main", voire à temps partiel. Les organisations doivent être conscientes de cette difficulté et de ce champ d'action, et veiller à fournir l'équipement nécessaire à leurs veilleurs.
 

Du côté des bonnes nouvelles, le parlement européen s'est montré très constructif et motivé pour couvrir ce "champ de bataille". L'AI Act, le Digital Services Act et le European Media Freedom Act sont autant de signes très forts, et actionnables, qui clarifient et respectent nos valeurs, prennent en compte énormément de facteurs, et surtout qui devraient rapidement avoir de l'effet et améliorer la situation. 


Guillaume Gadek

Société : Airbus Defence and Space
Fonction : expert en IA et désinformation


Pour en savoir plus :
Table Ronde Documation 2024