Intelligence artificielle

L’intelligence artificielle : comment rendre les algorithmes plus justes et plus éthiques ? France Charruyer rencontre Jean-Michel Loubes.

Dans le cadre du partenariat entre le gf2i et DATA RING, retrouvez un nouvel épisode des Causeries Data qui nous emmène dans les entrailles de la machine.


Jacqueline Sala




Qu’est-ce que le biais en IA ?

Source : LibreàLire

Les biais sont-ils capables du meilleur comme du pire ?
Face à l’enjeu de l’industrialisation de l’IA, comment pouvons-nous combattre ces biais pour rendre les algorithmes plus justes et plus éthiques ?
Un nouvel épisode des Causeries Data qui nous emmène dans les entrailles de la machine.

Conférence avec pour invités : France Charruyer & Jean-Michel Loubes


Jean-Michel Loubes est professeur des universités à l’Université de Toulouse. Il travaille dans le laboratoire de mathématiques de Toulouse. Il se définit comme un mathématicien heureux qui s’intéresse aux algorithmes et, tout particulièrement, aux problématiques sur les biais.

France Charruyer est Avocat Fondateur SELAS ALTIJ. Technologies Avancées et Gouvernance des données . Gestion du risque et de la conformité. Cybersécurité et protection des données . DPO. Enseigne à l’Université Paris Dauphine, et TBS. Elle est présidente de Data Ring, Libertés & Cultures numériques Protection et Valorisation de notre identité & patrimoine informationnel
 

Quelques temps de cette rencontre.

Limites de l'IA et ses implications

France Charruyer : Le podcast explore les limites de l'IA et ses implications sur nos vies, nos familles, nos emplois, nos loisirs et notre vision du monde. La conversation avec Causeries Data aborde les questions algorithmiques, l'inexplicabilité de l'IA et les implications éthiques et juridiques, en se concentrant sur l'usage et la définition actuelle des systèmes d'IA.
J-M. L. L'IA est un domaine informatique complexe axé sur la création de systèmes capables d'effectuer des tâches nécessitant de l'intelligence humaine. La définition de l'intelligence englobe la capacité de penser logiquement, résoudre des problèmes, prendre des décisions, analyser des situations complexes et apprendre de l'expérience. Les machines peuvent désormais apprendre par elles-mêmes à partir de données fournies par des modèles informatiques.

Jean-Michel travaille sur l'équité et la robustesse en IA à ANITI et TSE. Il discute des biais en IA, soulignant leur importance à quantifier et comprendre pour améliorer les systèmes

J-M.L. : Le terme biais est aussi un terme compliqué qu’il faut, bien entendu, définir. Biais vient du latin biaxius, deux axes. Ça veut dire que lorsqu’on est face à un problème, on peut le voir selon deux directions : une direction principale et puis une direction un peu inattendue, qui surprend. Si on regarde dans le dictionnaire l’étymologie, la décision biaisée est une décision qui dévie par rapport à un comportement attendu et le biais, c’est la variable qui entraîne cette déviation.
En fait, un biais algorithmique se réfère à des situations où un algorithme, ou un système de traitement de données automatique, donne des résultats qui vont être systématiquement différents pour certains groupes de personnes. Ainsi, il y a donc une déviation pour une minorité de personnes par rapport à un comportement majoritaire

France Charruyer : Mais, par définition, un système d’IA discrimine, sait ce qu’on va lui demander.

Jean-Michel Loubes explique que les biais dans les algorithmes de discrimination peuvent avoir des conséquences. Le système doit classifier la population en sous-groupes de manière juste et logique. Cependant, si des biais sont présents, la discrimination se base sur des raisons différentes de celles attendues. Par exemple, dans un système de recommandation professionnelle, une personne peut se voir conseiller un métier en fonction de son genre plutôt que de ses compétences, ce qui est injuste. Les algorithmes doivent donc être développés de manière à éviter ces biais pour assurer une égalité de traitement basée sur les compétences plutôt que sur des caractéristiques personnelles.

Lire l'intégralité de la transcription de la conférence ici :


France Charruyer : Quels sont les défis concernant l’explicabilité dans les réseaux neuronaux profonds ?

Jean-Michel Loubes souligne le dilemme des réseaux de neurones : plus ils sont gros et complexes, plus ils sont performants en prévision. Cependant, ces modèles complexes deviennent des boîtes noires difficiles à comprendre, avec jusqu'à 300 milliards de paramètres. Il est crucial de comprendre comment l'information se propage dans ces réseaux pour leur donner du sens dans notre logique humaine. Les chercheurs travaillent sur l'explicabilité des algorithmes pour rendre ces espaces de représentation compréhensibles aux humains. Malgré la difficulté à décortiquer les boîtes noires, il est essentiel de trouver des moyens d'expliquer les décisions prises par ces modèles complexes.

F.C. Il est important d'être lucide sur notre impuissance et le monopole américain dans ce domaine.

Les chercheurs en France cherchent des laboratoires financés pour rester dans le pays. La science doit se construire contre la majorité. La rationalité de l'IA pose des questions sur les biais et influence l'approche éthique et réglementaire. Certains pensent qu'il faut essayer le "Thinking, Fast and Slow". Il est important d'être lucide sur notre impuissance et le monopole américain dans ce domaine. Il faut aller au-delà de nos propres travaux pour lutter contre la "McDonaldisation" de la pensée et trouver des solutions pour l'avenir.
J-M.L. :La question se pose de savoir si l'intelligence artificielle (IA) peut contribuer à améliorer l'humanité en la libérant de l'ignorance et en la rendant meilleure. Jean-Michel Loubes exprime des inquiétudes quant à un monde où une IA uniforme dicterait nos actions, menaçant ainsi notre liberté et notre créativité. Cependant, il reste optimiste, soulignant que les IA peuvent aussi faire preuve de créativité. Il souligne l'importance de rendre l'IA explicable et de réglementer ses décisions pour permettre un dialogue entre l'homme et la machine. Il envisage un partenariat où l'homme peut apprendre de la machine, et vice versa, au-delà du simple apprentissage automatique.