Intelligence artificielle

La loi sur l'IA c'est maintenant. Règlement européen sur l'intelligence artificielle (RIA) : nouvelle étape est franchie !


Jacqueline Sala
Mercredi 5 Février 2025


La France vient de créer un Institut national pour l’évaluation et la sécurité de l’intelligence artificielle. Annoncé peu avant le Sommet pour l’action sur l’intelligence artificielle en France, cet organisme aura pour mission de prévoir les risques associés à cette technologie émergente. Cependant, il ne disposera pas de pouvoirs de régulation.




Le contexte européen

Le règlement (UE) 2024/1689 du Parlement européen et du Conseil, adopté le 13 juin 2024, instaure des normes harmonisées pour l'intelligence artificielle (IA) et apporte des modifications à certains règlements existants. Ce texte, communément appelé la « loi sur l’IA », est entré en vigueur le 1er août 2024.
Établir un cadre uniforme pour la mise sur le marché, la mise en service et l’utilisation de l’IA dans l’Union européenne. La loi vise à promouvoir l'innovation et l'adoption de l'IA, tout en garantissant un haut niveau de protection de la santé, de la sécurité, des droits fondamentaux, ainsi que des valeurs de démocratie et de l'État de droit au sein de l'Union.

La loi sur l’IA adopte une approche basée sur les risques et classe les systèmes d'IA en quatre catégories.

Risque inacceptable  : Les systèmes d'IA présentant des risques jugés inacceptables pour les droits fondamentaux et les valeurs de l'Union sont strictement interdits conformément à l’article 5.

Risque élevé : Les systèmes présentant des risques élevés pour la santé, la sécurité et les droits fondamentaux sont soumis à des exigences et obligations rigoureuses. Ces systèmes sont qualifiés de « haut risque » selon l’article 6, en conjonction avec les annexes I et III.

Risque de transparence : Les systèmes posant un risque limité de transparence doivent répondre aux exigences énoncées à l’article 50.

Risque minimal à nul : Les systèmes d’IA à risque minimal ou nul ne sont pas réglementés, mais les fournisseurs peuvent volontairement adopter des codes de conduite.

Conformément à l’article 96(1)(b) de la loi sur l’IA, la Commission doit établir des lignes directrices pour la mise en œuvre des interdictions stipulées à l’article 5. Ces interdictions entreront en vigueur six mois après la date d'application de la loi, soit le 2 février 2025.

Ces lignes directrices visent à clarifier les aspects juridiques et à fournir des informations sur l’interprétation des interdictions par la Commission, afin d'assurer leur application cohérente et efficace. Elles servent de guide pratique pour aider les autorités compétentes, ainsi que les fournisseurs et les déployeurs de systèmes d'IA, à se conformer aux obligations de la loi sur l’IA. Elles s'efforcent d'interpréter les interdictions de manière proportionnée, permettant d'atteindre les objectifs de protection des droits fondamentaux et de la sécurité tout en favorisant l'innovation.

Ces lignes directrices ne se veulent pas contraignantes. La Cour de justice de l’Union européenne (CJUE) reste l'autorité ultime pour toute interprétation officielle de la loi sur l’IA.
 

Télécharger le rapport

La loi sur l'IA c'est maintenant. Règlement européen sur l'intelligence artificielle (RIA) : nouvelle étape est franchie !

L'Institut national pour l’évaluation et la sécurité de l’intelligence artificielle a été créé avec plusieurs missions essentielles :

La loi sur l'IA c'est maintenant. Règlement européen sur l'intelligence artificielle (RIA) : nouvelle étape est franchie !
Anticiper les Risques : Identifier et prévoir les dangers potentiels liés à l'utilisation et à l'évolution de l'intelligence artificielle.
   
Évaluer les Technologies : Analyser et examiner les nouvelles technologies d'intelligence artificielle afin de garantir leur sécurité et leur fiabilité.

Favoriser la Recherche et le Développement : Encourager la recherche dans le domaine de la sécurité de l'intelligence artificielle et collaborer avec d'autres centres de recherche et universités.

Former et Sensibiliser : Former les professionnels et sensibiliser le public aux enjeux de sécurité de l'intelligence artificielle.

Collaborer Internationalement : Travailler avec des organismes internationaux pour harmoniser les normes de sécurité et partager les meilleures pratiques.
 

Bien que cet institut ne dispose pas de pouvoirs de régulation, il joue un rôle crucial pour garantir que l'intelligence artificielle soit développée et utilisée de manière sûre et éthique.