Intelligence artificielle

Entretien avec Julien Duprat "L’intégration de l’Intelligence Artificielle dans les solutions de veille collaboratives : un équilibre bénéfices-risques à maitriser." Curebot


Jacqueline Sala


L’IA ou les traitements automatisés sont déjà utilisés dans les plateformes de veille, notamment dans les technologies de traitement automatisé du langage...




Rencontre avec Julien Duprat, président et co-fondateur d’EspritsCollaboratifs, une société française qui accompagne les entreprises à professionnaliser et décentraliser leur pratique de veille.
Depuis près de 10 ans, EspritsCollaboratifs édite Curebot, la plateforme de veille nouvelle génération, puissante, ergonomique et simple d'utilisation, qui a été conçue pour optimiser le traitement et l'accès des salariés aux informations et à l'intelligence disponible sur le web et en interne. Focus sur l’intégration des IA génératives au sein de Curebot !

Les impacts de l’intelligence artificielle

Quels sont les impacts de l’intelligence artificielle dans les processus de veille d’aujourd’hui et demain ?

L’IA est un sujet phare en ce moment, mais c’est aussi devenu un terme générique souvent utilisé pour désigner les technologies qui ne sont pas encore pleinement définies. On a pu observer cela auparavant quand on parlait de « big data » ou de « transformation numérique ». Une fois que l’IA rentre dans le domaine scientifique ou technologique, elle reçoit un nom spécifique comme « machine learning » ou « traitement automatisé du langage » par exemple.
 
L’IA ou les traitements automatisés sont déjà utilisés dans les plateformes de veille, notamment dans les technologies de traitement automatisé du langage. Elle sert à clusteriser des ressources similaires, à extraire du contenu pertinent des pages html ou à réaliser des résumés automatiques.
L’IA générative est plutôt prometteuse. Il y a déjà beaucoup de choses très concrètes qui fonctionnent aujourd’hui : sa capacité à résumer, à extraire des informations… Elle pourrait également améliorer d’autres aspects du cycle de gestion de l’information.
 
Cependant, il est important de mentionner que ces technologies viennent aussi avec leurs risques. Par nature, une IA générative ça ne réfléchit pas, ça génère une séquence de mots qui est probable et cohérente, mais qui n’est pas forcément exacte. Cela peut être problématique dans un processus de veille où la précision et la fiabilité sont indispensables pour assoir des prises de décisions.
 

Pouvez-vous nous donner des exemples opérationnels de l’impact de l’IA générative dans le processus de veille ?

Les exemples opérationnels sont très nombreux à ce titre je vous invite à découvrir les articles de Christophe Deschamps sur le cycle de la veille.
 
Pour aller plus loin : Ce que ChatGPT fait à la veille : l’orientation des besoins. 1/4
 
A noter cependant que sur un cas d’usage donné, une même approche méthodologique avec l’IA générative peut engendrer des résultats aléatoires.
 
Par exemple, concernant le sourcing, lors d’une 1re recherche sur une base ChatGPT, je lui ai demandé d’identifier les grandes écoles de commerce dans le monde. L’IA a produit une liste de 400 à 500 écoles, classées par continent et par pays. Dans la liste il y avait une URL qui était fausse, mais le résultat était principalement fiable.
 
Lors d’une 2e recherche, j’ai utilisé exactement la même méthodologie pour identifier des parcours de formation mis en place par des entreprises. L’IA a produit une liste de 300 sources totalement fictives. Aucune des sources fournies n’était valide. Cela montre une défaillance du système et surtout que peu importe la réponse, l’IA génère un contenu qu’il soit vrai ou faux.
 

Comment adopter les technologies d’IA générative ?

Aujourd'hui, plusieurs sources d'adoption se distinguent : les salariés avec leur utilisation individuelle ; les entreprises qui déploient des services, des serveurs et des modèles pour permettre l'accès aux salariés ; et enfin au travers des fournisseurs de services et les sociétés de conseil. En effet, de nombreux fournisseurs de services intègrent maintenant des capacités de l’IA générative dans leurs plateformes. Cela leur permet de ne pas manquer la vague actuelle autour de l’IA et d’améliorer la valeur de leurs offres. Les sociétés de conseils accompagnent également à l’intégration de l’IA dans les plans de transformation numérique des entreprises. C’est pourquoi c’est indispensable pour les professionnels de l’information de se familiariser avec ces outils. Il faut comprendre que de nombreux métiers peuvent bénéficier des avantages de l’IA générative, mais il faut également connaître ses limites
 
L'enjeu crucial réside dans la perception que chacun a de cet outil : Utilise-ton l’IA générative en remplacement de notre travail ou en assistance ? Il est essentiel de le considérer comme un assistant et de déterminer quelles tâches garder pour soi pour éviter les erreurs dont l’employé final serait le seul responsable.
 
Repositionnons-nous dans le contexte de veille. Imaginons un salarié qui se repose sur Perplexity. Lors d’une requête pour identifier les pays européens ayant des centrales nucléaires, Perplexity informe à tort ce salarié que le Portugal en possède deux en activité, alors qu’elles ont été fermées. Si cette information est utilisée dans un rapport, pour EDF par exemple, sans vérification, cela peut sérieusement nuire à la crédibilité du veilleur analyste concerné. Il y a des vraies pincettes à prendre et il faut être prudent. On ne doit pas attendre de l’outil qu’il réfléchisse à notre place, qu’il vérifie à notre place et encore moins ou qu’il assume des responsabilités en cas d’erreur.

Enfin, l’IA générative est souvent perçue comme apportant un gain de temps, mais il faut prendre en compte le temps supplémentaire nécessaire pour vérifier et recouper les informations, surtout dans le cadre de la veille informationnelle.
 

L’impact de l’intelligence artificielle
 

Concernant l’impact de l ’intelligence artificielle, pensez-vous qu’elle pourrait r emplacer le métier de veilleur ?

Le métier des veilleurs ne risque pas d’être remis en question, à condition qu'ils soient prêts à faire évoluer leur palette de compétences et à intégrer judicieusement ces outils.
 
Les veilleurs qui continuent à travailler sans s’adapter pourraient, eux, se trouver en danger. Il faut réussir à voir ces évolutions comme des opportunités. Il est possible de faire évoluer les pratiques, les livrables, la gamme de service rendus en interne. De même, il est urgent d’impliquer davantage les employés, les experts, les métiers dans les processus de veille et d’analyse, ce que les entreprises n’ont pas toujours réussi à faire jusque-là. C'est une façon de réinventer le métier de veilleur en partageant ses connaissances et compétences en gestion de l'information, des notions qu'ils seraient bénéfiques de diffuser plus largement au sein de l'entreprise.
 
Un des pendants du développement des IA génératives et leur adoption croissante sera la baisse continue de la confiance dans les informations et les médias traditionnels. Et c’est aussi cela qui va permettre de remettre en avant les compétences informationnelles des professionnels, comme la capacité à qualifier les sources, à recouper, à analyser les informations.
 
Les veilleurs ont un rôle crucial à jouer dans la transmission de ces compétences à tous les salariés, un peu comme les directions de sécurité qui sensibilisent l’ensemble des salariés à la sécurité informatique.

Pour aller plus loin : Le futur de la veille s’écrit-il à l’encre de l’IA ?
 

Les risques liés à l’intelligence artificielle

Vous avez mentionné les préoccupations autour de la sécurité de l’information. Quelles sont les options pour les entreprises qui veulent éviter des fuites de données ?

Il est crucial d'observer une grande prudence, notamment en ce qui concerne la protection des données. Par exemple, l'utilisation de services d'IA comme ChatGPT ou l'IA générative de Bing, ou l'utilisation de plateformes tierces (veille, CRM ou knowledge management) reposant sur des services d'IA hébergés aux États-Unis implique que les documents traités sont soumis à la législation américaine, et les autorités judiciaires américaines peuvent demander un accès aux données traitées.
 
Il existe plusieurs stratégies pour sécuriser les données.
 
Dans un premier temps, il y a les grandes entreprises, notamment celles avec une forte composante technologique, qui peuvent héberger des modèles d’IA ou des modèles open source sur leurs propres serveurs internes. Cela leur permet de garantir que les données restent dans leur système d’information.
 
Pour les autres entreprises, une autre solution est de collaborer avec des éditeurs de plateformes qui hébergent des modèles d’IA sur des serveurs français.

Par exemple, nous chez Curebot, nous avons déployé un modèle open source sur nos serveurs OVH. Lorsque nos clients utilisent ce service pour résumer un document ou en extraire des informations clés, aucune donnée ne quitte nos serveurs. Ainsi, les informations restent protégées.
 

Quels sont les atouts et les risques liés à l’intégration de l’intelligence artificielle dans des solutions collaboratives comme Curebot ?

Pour une plateforme de veille collaborative comme Curebot, un des prérequis est l’auto- hébergement du modèle de langage. Il faut s’assurer que tout soit hébergé sur le sol français, sans recours à des API externes comme celles d’OpenAI, de Bing ou de Google. Cela constitue une base de sécurité et de souveraineté technologique essentielle pour la protection des données et du secret industriel.
 
En ce qui concerne les atouts de l’intégration de l’IA, il y a un potentiel énorme pour soutenir et améliorer les capacités analytiques des veilleurs. L’IA peut aider à résumer des documents, extraire des informations clés et soutenir une posture plus critique et analytique. Cela ne remplace pas le travail du veilleur, mais le complète, en permettant de développer une réflexion plus profonde sur les informations traitées.
 
Cependant, il y a aussi des risques à considérer, notamment en termes de confiance. Il faut que les contributions de l’IA soient clairement identifiées comme telles. Si un contenu est généré par l’IA, il faut être transparent pour éviter toute confusion sur l’origine des informations. Cela permet de maintenir la confiance dans l’écosystème de la plateforme et d’assurer que l’intégrité de l’information n’est pas compromise.
 
Je suis convaincu que l’intégration de l’IA dans les environnements professionnels est prometteuse. L’IA peut encourager une participation plus active dans les plateformes collaboratives, mais il faut toujours que cette aide soit une extension des idées originales des employés pour maintenir l’authenticité des échanges et non une substitution des idées des employés.

Pour aller plus loin : Veille Stratégique et IA Générative : Un équilibre entre innovation et sécurité

Comment une plateforme peut-elle garantir sa fiabilité ?

La garantie de la fiabilité d’une plateforme repose sur une gestion rigoureuse du sourcing. Alors qu’il sera de plus en plus difficile d’identifier si les informations viennent d’humains ou d’une IA, il faudra de manière quasi systématique évaluer leur crédibilité et leur origine. Il est aussi important de continuer à développer son esprit critique. Un bon sourcing de confiance restera un allié précieux dans les années à venir !

La crédibilité et la confiance accordées aux sources posent un défi majeur. En effet, pour maintenir la confiance dans l'information, il est essentiel d'avoir confiance en son sourcing, soutenue par un travail d'analyse approfondi. L'utilisation de l'IA doit être rigoureusement encadrée car la fiabilité de l'IA générative, elle, ne pourra jamais être entièrement garantie.

Les formations face à l’IA
 

Parlons de l’intégration de l’IA dans les formations, notamment pour les professionnels et les étudiants. Comment cela se fait-il et jusqu’où peut-on aller ?

C’est un sujet qui est très clivant. Certaines universités, surtout américaines, ont rapidement intégré l’IA dans leurs programmes. Je pense que les écoles devraient intégrer l’IA dans leurs cursus et surtout permettre aux étudiants d’apprendre à utiliser et tester ces outils. Cela va leur permettre de comprendre à la fois les opportunités et les risques. Il vaut mieux s’y confronter dans un cadre éducatif que professionnel. J’encourage les personnes qui dispensent les formations d’utiliser ces outils dans les études.
 
Avant, les recherches impliquaient des visites à la bibliothèque et la consultation de nombreux livres. Aujourd’hui, Google a simplifié l’accès à l’information, et l’IA peut même rédiger des résumés. Il faut donc repenser le dispositif de formation, peut-être en rendant l’apprentissage plus interactif et en exploitant le temps gagné grâce à l’IA pour des tâches plus enrichissantes.

L’impact environnemental de l’IA

Pour finir, qu’en est-il de l’impact environnemental de l’IA ?

L’impact environnemental de l’IA va bien au-delà de la simple consommation d’énergie. Il englobe l’utilisation de l’eau, des matériaux rares, et soulève des problèmes d’obsolescence programmée. Sans parler de l’impact sociétal, comme la sous-traitance dans des pays pauvres et le pillage des droits d’auteur.
 
C’est un enjeu majeur qui devrait prendre en compte tout une analyse écosystémique complexe et sur laquelle on ne peut avoir une réponse trop rapide.
 
Il est important que les entreprises intègrent ces préoccupations dans leur politique de responsabilité sociétale des entreprises (RSE). Je dirais qu’il est tout de même important d’avoir une utilisation raisonnée et raisonnable de ces technologies.
 

Merci, Julien Duprat, d'avoir accepté de répondre à nos questions. Jacqueline Sala.