L’innovation en IA s’accélère
Le marché mondial de l’IA évalué à 156 milliards de dollars en 2024, devrait atteindre 392,1 milliards de dollars en 2028 (source Grand View research). D’ici 2025, 80% des entreprises utiliseront l’IA générative (source Gartner). On doit cette évolution rapide à l’usage de ChatGPT qui s’est très vite répandu et a été un véritable accélérateur : basé sur le langage naturel, il est à la portée de tous et s’est imposé dans de nombreux domaines.
Les laboratoires de recherche européens en IA se multiplient, de même que les startups.
On compte ainsi 328 startups en IA en France. A ce titre, l’association Hub France IA anime un écosystème d’acteurs qui partagent une vision commune de l’IA en France et en Europe : Grands groupes, PME & ETI, startups, écoles, investisseurs, collectivités, juristes et experts en IA, etc. Elle enregistre chaque semaine entre 10 et 15 nouvelles demandes d’adhésion parmi lesquelles des startups, pépites françaises ou européennes qui ont une réelle valeur ajoutée en propre et non pas qui intègrent juste une technologie existante.
Les sessions du congrès ont présenté des innovations majeures, particulièrement dans l'intelligence artificielle générative et l'optimisation des opérations informatiques (AIOps). Par exemple, Datategy a présenté papAI, un outil conçu pour aider les entreprises à exploiter l’intelligence artificielle en vue d’optimiser leurs stratégies. Ce modèle innovant, basé sur l’explicabilité (XAI), permet aux entreprises de mieux comprendre et justifier les décisions prises par leurs systèmes d’IA, renforçant ainsi la transparence et la confiance au sein de l’organisation.
De son côté, Microsoft a présenté ses applications d’IA générative dans un cadre sécurisé via Azure OpenAI, permettant aux entreprises d’intégrer des modèles d'IA dans un environnement conforme aux réglementations européennes en matière de confidentialité des données. En proposant des solutions avancées et sécurisées, ces entreprises répondent aux besoins de flexibilité et de performance des organisations, tout en se conformant aux exigences croissantes en matière de transparence et de responsabilité.
De grands groupes aussi tels que la Poste se réinventent. L’activité historique « courrier et colis » bien que restant un métier important, tend à diminuer. Il est donc nécessaire d’imaginer de nouveaux services et de faire évoluer les métiers de la Poste. Une plateforme d’acculturation interne a été mise en place et a permis de former 74000 postiers à la data et à l’IA. L’enjeu est d’accompagner les entreprises et particuliers qui se tournent vers la Poste pour résoudre un problème spécifique et pour y répondre de faire évoluer les compétences en interne pour offrir de nouveaux services.
L’Etat, déjà très engagé avec Etalab à une ouverture croissante des données en open data, contribue aussi de plus en plus à accompagner les entreprises et les citoyens à adopter l’IA. Si la souveraineté est au cœur des politiques publiques, l’appropriation des technologies de l’IA passe par l’expérimentation de cas d’usage au service de l’intérêt général. A ce titre, l’Etat intervient dans le financement de la recherche et des incubateurs, ce qui mobilise tout un écosystème (startups, groupes émergeant en Europe). Il s’agit d’orienter les débouchés de l’IA vers une IA de confiance.
Les laboratoires de recherche européens en IA se multiplient, de même que les startups.
On compte ainsi 328 startups en IA en France. A ce titre, l’association Hub France IA anime un écosystème d’acteurs qui partagent une vision commune de l’IA en France et en Europe : Grands groupes, PME & ETI, startups, écoles, investisseurs, collectivités, juristes et experts en IA, etc. Elle enregistre chaque semaine entre 10 et 15 nouvelles demandes d’adhésion parmi lesquelles des startups, pépites françaises ou européennes qui ont une réelle valeur ajoutée en propre et non pas qui intègrent juste une technologie existante.
Les sessions du congrès ont présenté des innovations majeures, particulièrement dans l'intelligence artificielle générative et l'optimisation des opérations informatiques (AIOps). Par exemple, Datategy a présenté papAI, un outil conçu pour aider les entreprises à exploiter l’intelligence artificielle en vue d’optimiser leurs stratégies. Ce modèle innovant, basé sur l’explicabilité (XAI), permet aux entreprises de mieux comprendre et justifier les décisions prises par leurs systèmes d’IA, renforçant ainsi la transparence et la confiance au sein de l’organisation.
De son côté, Microsoft a présenté ses applications d’IA générative dans un cadre sécurisé via Azure OpenAI, permettant aux entreprises d’intégrer des modèles d'IA dans un environnement conforme aux réglementations européennes en matière de confidentialité des données. En proposant des solutions avancées et sécurisées, ces entreprises répondent aux besoins de flexibilité et de performance des organisations, tout en se conformant aux exigences croissantes en matière de transparence et de responsabilité.
De grands groupes aussi tels que la Poste se réinventent. L’activité historique « courrier et colis » bien que restant un métier important, tend à diminuer. Il est donc nécessaire d’imaginer de nouveaux services et de faire évoluer les métiers de la Poste. Une plateforme d’acculturation interne a été mise en place et a permis de former 74000 postiers à la data et à l’IA. L’enjeu est d’accompagner les entreprises et particuliers qui se tournent vers la Poste pour résoudre un problème spécifique et pour y répondre de faire évoluer les compétences en interne pour offrir de nouveaux services.
L’Etat, déjà très engagé avec Etalab à une ouverture croissante des données en open data, contribue aussi de plus en plus à accompagner les entreprises et les citoyens à adopter l’IA. Si la souveraineté est au cœur des politiques publiques, l’appropriation des technologies de l’IA passe par l’expérimentation de cas d’usage au service de l’intérêt général. A ce titre, l’Etat intervient dans le financement de la recherche et des incubateurs, ce qui mobilise tout un écosystème (startups, groupes émergeant en Europe). Il s’agit d’orienter les débouchés de l’IA vers une IA de confiance.
La règlementation de l’IA, un impératif
La conformité réglementaire, en particulier avec le RGPD et l’AI Act de l’Union européenne, a également occupé une place centrale dans les débats.
Il s’agit de favoriser l’innovation tout en garantissant la protection des données personnelles. Avec le RGPD, l’Europe s’est attachée à la protection des données et des libertés individuelles. Le travail pour favoriser l’adhésion et donc l’utilisation porte avant tout sur la confiance accordée à l’IA.
La protection des données n’est pas un obstacle à l’innovation mais se révèle être un avantage compétitif. En effet, offrir aux usagers la transparence sur l’usage des données renforce leur confiance et donc favorise l’adoption.
La pseudonymisation qui consiste à retirer tout ce qui permet d’identifier une personne permet d’exploiter les données tout en garantissant la sécurité des données personnelles.
L’IA act vient en complément apporter une approche basée sur les niveaux de risques :
Il s’agit de favoriser l’innovation tout en garantissant la protection des données personnelles. Avec le RGPD, l’Europe s’est attachée à la protection des données et des libertés individuelles. Le travail pour favoriser l’adhésion et donc l’utilisation porte avant tout sur la confiance accordée à l’IA.
La protection des données n’est pas un obstacle à l’innovation mais se révèle être un avantage compétitif. En effet, offrir aux usagers la transparence sur l’usage des données renforce leur confiance et donc favorise l’adoption.
La pseudonymisation qui consiste à retirer tout ce qui permet d’identifier une personne permet d’exploiter les données tout en garantissant la sécurité des données personnelles.
L’IA act vient en complément apporter une approche basée sur les niveaux de risques :
- L’IA à risque inacceptable : ces systèmes peuvent causer des atteintes graves aux droits de l’homme ou à la sécurité publique. Ils sont strictement interdits et ne peuvent donc être commercialisés en UE ni exportés. Exemples : notation sociale des citoyens, fichage des individus en fonction de leurs opinions politiques, religieuses ou philosophiques, identification biométrique en temps réel dans les espaces publics.
- L’IA à haut risque : ces systèmes sont utilisés dans les infrastructures critiques, l’éducation, le recrutement ou les services essentiels et peuvent avoir un impact significatif sur les droits fondamentaux des individus. Ils pourront être mis sur le marché à condition de faire l’objet d’un label CE, d’une déclaration de conformité et d’un enregistrement dans la base de données de l’UE. Exemples : infrastructures sensibles comme les sites industriels qui recourent à l'IA pour la gestion de leur système de sécurité ou de consommation d'énergie, ou encore logiciels de recrutement qui utilisent l’IA pour trier les CV dont il faut démontrer qu’ils ne biaisent pas les résultats en fonction de critères discriminatoires.
- L’IA à risque faible : ces systèmes présentent un risque minimal pour les droits et la sécurité. Ils peuvent être commercialisés une fois que l’entreprise s’est acquittée de l’obligation d’information des utilisateurs sur le fait que le contenu a été généré par l’IA. Exemples : assistant virtuel (chatbot), filtres anti-spam, jeux vidéo.
Les entreprises, en particulier les banques qui gèrent avant tout des données personnelles, s’organisent en créant des structures pour anticiper l’arrivée de nouvelles règlementations. Des comités IA sont créés associant experts techniques, experts métier et juristes.
Les experts de Wavestone, du Crédit Agricole et de Doctolib ont partagé leurs expériences sur les défis liés à la transparence et la responsabilité dans l’utilisation de l’IA. Pour rester conformes, ces entreprises mettent en place des pratiques exigeantes, notamment l’audit de leurs modèles et l’intégration de mesures de transparence, qui garantissent que les algorithmes respectent les droits des utilisateurs et évitent les biais.
La société IBM a quant à elle abordé des solutions axées sur la gouvernance des données, telles que des systèmes de traçabilité des flux de données tout au long de leur cycle de vie. En assurant une documentation et une surveillance de ce qui est produit par l’IA, les entreprises peuvent mieux se conformer aux exigences légales, mais aussi anticiper les risques réglementaires liés aux nouvelles législations européennes sur l’IA.
L’éthique de l’IA, un devoir
D’ici 2025, 50% des entreprises adopteront des pratiques d’IA éthique (source Forrester).
Un écosystème se dessine en Europe animé par des valeurs responsables et équitables.
L’éthique de l’IA est un autre pilier de la transformation numérique qui a suscité des débats au congrès. Ceci concerne le respect des droits humains et des personnes dans l’usage de ces nouvelles technologies.
Orange a illustré son engagement envers une IA éthique, en intégrant des outils de détection de biais dans ses systèmes pour garantir que les décisions automatisées soient justes et non discriminatoires. Capgemini a également démontré son initiative de fair AI, une approche qui vise à minimiser les biais discriminatoires grâce à l’audit et à la révision régulière des modèles d’apprentissage, contribuant à une IA plus inclusive et équitable
Un écosystème se dessine en Europe animé par des valeurs responsables et équitables.
L’éthique de l’IA est un autre pilier de la transformation numérique qui a suscité des débats au congrès. Ceci concerne le respect des droits humains et des personnes dans l’usage de ces nouvelles technologies.
Orange a illustré son engagement envers une IA éthique, en intégrant des outils de détection de biais dans ses systèmes pour garantir que les décisions automatisées soient justes et non discriminatoires. Capgemini a également démontré son initiative de fair AI, une approche qui vise à minimiser les biais discriminatoires grâce à l’audit et à la révision régulière des modèles d’apprentissage, contribuant à une IA plus inclusive et équitable
La sobriété numérique, une nécessité
Dans le prolongement de l’IA éthique et avec la prise de conscience croissante de l'impact environnemental des technologies de l'IA, la sobriété numérique s’impose comme un sujet clé. Pour limiter l’impact environnemental, les développeurs en IA doivent s’attacher à réduire la complexité des modèles et à minimiser l’utilisation des données en vue de diminuer l’empreinte carbone. Cela implique de s’orienter vers une innovation responsable moins couteuse en ressources. En l’occurrence, la tendance est de se tourner davantage vers des modèles plus spécialisés par rapport à une problématique plutôt que des modèles généralistes beaucoup plus consommateurs en ressources.
Plusieurs entreprises, dont Google et Thales, ont partagé leurs initiatives pour réduire la consommation d’énergie dans les data centers et les processus de calculs intensifs. Google, par exemple, optimise ses infrastructures en utilisant des algorithmes IA pour gérer la consommation d’énergie dans le secteur industriel, tout en s'efforçant de réduire les ressources nécessaires à l'exploitation des données. Thales a également développé des systèmes de gestion de données à faible consommation énergétique, contribuant ainsi à limiter l'empreinte carbone de l'IA dans les secteurs de la défense et des transports.
Plusieurs entreprises, dont Google et Thales, ont partagé leurs initiatives pour réduire la consommation d’énergie dans les data centers et les processus de calculs intensifs. Google, par exemple, optimise ses infrastructures en utilisant des algorithmes IA pour gérer la consommation d’énergie dans le secteur industriel, tout en s'efforçant de réduire les ressources nécessaires à l'exploitation des données. Thales a également développé des systèmes de gestion de données à faible consommation énergétique, contribuant ainsi à limiter l'empreinte carbone de l'IA dans les secteurs de la défense et des transports.
En synthèse
Le congrès Big Data & AI Paris 2024 a mis en évidence un équilibre essentiel à maintenir entre innovation, réglementation, éthique et sobriété dans l’univers de l’intelligence artificielle. L’événement a montré que les avancées technologiques doivent impérativement s’accompagner de pratiques rigoureuses pour répondre aux exigences de conformité et d’éthique, et qu'elles ne peuvent ignorer l’impact environnemental des infrastructures numériques.
Ce modèle, où chaque pilier renforce les autres, souligne la nécessité d’une approche équilibrée, où l'IA contribue non seulement à l'efficacité et à la croissance des entreprises, mais répond aussi aux défis de transparence, de responsabilité sociale et de préservation de l’environnement.
L’Europe et la France en particulier ont une carte à jouer dans le maintien de l'équilibre entre avancées technologiques, cadre réglementaire, éthique et responsabilité environnementale, qui s’il est bien conduit permet non seulement de s’engager vers une IA bénéfique à long terme mais aussi de s’imposer comme un avantage concurrentiel face aux Etats-Unis et à la Chine.
Ce modèle, où chaque pilier renforce les autres, souligne la nécessité d’une approche équilibrée, où l'IA contribue non seulement à l'efficacité et à la croissance des entreprises, mais répond aussi aux défis de transparence, de responsabilité sociale et de préservation de l’environnement.
L’Europe et la France en particulier ont une carte à jouer dans le maintien de l'équilibre entre avancées technologiques, cadre réglementaire, éthique et responsabilité environnementale, qui s’il est bien conduit permet non seulement de s’engager vers une IA bénéfique à long terme mais aussi de s’imposer comme un avantage concurrentiel face aux Etats-Unis et à la Chine.