Intelligence artificielle

1er août. Entrée en vigueur de la législation européenne sur l’intelligence artificielle

Innovation responsable et le développement de systèmes d'IA conformes à la loi.


Jacqueline Sala


Le but de ce règlement est d'assurer que l'IA développée et utilisée dans l'UE soit fiable, respectueuse des droits fondamentaux des individus, et de créer un marché harmonisé pour l'IA dans l'UE qui favorise l'adoption et l'innovation.




La législation européenne sur l’intelligence artificielle (IA) est entrée en vigueur, devenant le premier règlement global au monde sur l'IA.

Conçue pour garantir la fiabilité de l'IA développée et utilisée dans l'UE, elle vise à protéger les droits fondamentaux des citoyens et à créer un marché harmonisé de l'IA dans l'UE.

Les responsables européens, tels que Margrethe Vestager et Thierry Breton, soulignent les avantages de l'IA tout en plaçant les citoyens au premier plan et en veillant au respect des règles de l'UE. La majorité des règles de la législation sur l'IA entreront en vigueur le 2 août 2026, avec des interdictions immédiates pour certains systèmes d'IA à haut risque.
Pour faciliter la transition, la Commission a lancé le Pacte sur l'IA, incitant les développeurs à adopter volontairement les obligations de la législation avant les délais légaux.
Les États membres doivent désigner des autorités nationales compétentes d'ici le 2 août 2025. Le Bureau de l'IA de la Commission sera chargé de mettre en œuvre la législation au niveau de l'UE et de garantir le respect des règles pour les modèles d'IA à usage général.

La loi AI Act définit différents niveaux de risque pour les systèmes d'IA

Le but de ce règlement est d'assurer que l'IA développée et utilisée dans l'UE soit fiable, respectueuse des droits fondamentaux des individus, et de créer un marché harmonisé pour l'IA dans l'UE qui favorise l'adoption et l'innovation.
La loi AI Act définit différents niveaux de risque pour les systèmes d'IA, allant du risque minimal comme les filtres anti-spam, aux risques spécifiques de transparence comme les chatbots, aux risques élevés comme les systèmes utilisés pour le recrutement ou les prêts.
Les systèmes à haut risque devront respecter des exigences strictes et se conformer à des normes élevées en matière de protection des données, de documentation et de cybersécurité. Des sandbox réglementaires seront mis en place pour encourager l'innovation responsable et le développement de systèmes d'IA conformes à la loi.

Les systèmes d’IA jugés dangereux pour les droits fondamentaux seront interdits, tels que ceux manipulant le comportement humain ou utilisant la notation sociale.

Par exemple, les jouets encourageant des comportements risqués chez les mineurs et les systèmes biométriques sur le lieu de travail seront également interdits.
La loi sur l’IA réglementera les modèles d’IA à usage général, comme ceux capables de générer du texte humain, pour assurer la transparence et prévenir les risques potentiels. Ces modèles sont de plus en plus intégrés dans les applications d’IA. En somme, la loi vise à protéger les droits des individus face aux avancées de l’IA et à encadrer son utilisation de manière éthique et responsable pour éviter des abus.

Les États membres doivent nommer des autorités nationales pour superviser l'application des règles sur l'IA d'ici le 2 août 2025.

Le bureau de l'IA de la Commission sera chargé de mettre en œuvre la loi sur l'IA dans l'UE.
Trois organes consultatifs soutiendront la mise en œuvre des règles, notamment en assurant une application uniforme dans les États membres et en fournissant des conseils techniques. Des amendes pourront être imposées aux entreprises ne respectant pas ces règles, allant jusqu'à 7 % du chiffre d'affaires mondial annuel pour les violations graves. Il est également prévu qu'un forum consultatif diversifié apporte des conseils au bureau de l'IA.

La plupart des règles de la loi sur l'IA seront en vigueur le 2 août 2026, mais les interdictions des systèmes à risque s'appliqueront six mois plus tôt, et les règles pour les modèles d'IA généraux seront en vigueur après 12 mois. Pour faciliter la transition, la Commission a lancé le pacte sur l'IA, incitant les développeurs à respecter les obligations de la loi avant les délais légaux. Elle élabore des lignes directrices pour l'application de la loi et soutient la corégulation avec des normes et des codes de pratique. Un code de pratique d'IA générale est en cours d'élaboration avec une consultation ouverte à toutes les parties prenantes.