L’IA et ses biais : le fantasme de l’impartialité a du plomb dans l’aile

L’intelligence artificielle est-elle raciste ? Cette question est revenue à plusieurs reprises ces dernières années, en écho à plusieurs « dysfonctionnements » constatés, mettant sur le devant de la scène la question des biais1. « Les biais correspondent à des écarts entre les résultats observés et ceux attendus », explique Rémy Démichelis, journaliste et auteur de l’ouvrage L’intelligence artificielle, ses biais et les nôtres2. Cette problématique est illustrée par l’affaire Compas, du nom d’un logiciel utilisé par la justice états-unienne pour estimer le risque de récidive des individus en détention provisoire : « On s’est rendu compte d’un fort biais discriminatoire vis-à-vis des personnes noires avec ce logiciel », affirme notre interlocuteur. Ce biais raciste s’explique non par les penchants xénophobes de la machine, mais par l’historique des données utilisées pour l’entraîner, reflétant ainsi des discriminations à l’œuvre dans la société – la justice états-unienne s’étant historiquement montrée plus sévère avec les Afro-américains.

Le biais peut également s’avérer sexiste, comme lorsque des IA sont utilisées pour trier automatiquement les meilleurs CV pour un emploi donné. Les postes de pouvoir ayant historiquement été occupés par des hommes, l’IA va favoriser par la suite des profils similaires, quand bien même le genre lui-même ne serait pas utilisé en tant que critère. Des chercheurs travaillent ainsi sur des moyens de limiter l’apparition de tels biais, mais cela reste complexe selon Rémy Démichelis : « Il existe plusieurs techniques pour modifier les données utilisées par l’IA. On peut par exemple créer des cas de figure inexistants mais vraisemblables, pour équilibrer les données, mais cela ne résout pas tout. On utilise aussi parfois des techniques d’interprétabilité, qui permettent de déduire les critères déterminants utilisés par l’IA pour donner sa réponse. Mais on n’explique jamais définitivement l’algorithme, ces technologies ont des limites. »

Dès lors, comment avoir confiance en des systèmes qui reproduisent des discriminations, sous couvert d’une « impartialité » propre à la machine ? Pour notre interlocuteur, une des réponses réside dans une forme « d’étanchéité » entre les domaines : « L’IA exploite aujourd’hui des bases de données qui étaient initialement séparées les unes des autres. Il est désormais très facile de récolter des données diverses et variées et de créer des corrélations entre elles. Par exemple, on peut déterminer l’obtention de crédits bancaires en fonction des achats effectués par une personne. Ou offrir des réductions sur des assurances en fonction de la fréquence de consultation d’un médecin ou des activités physiques. Quand des dissociations qui existaient précédemment ne se font plus, on peut se retrouver dans une situation où on reproduit des biais préjudiciables, renforcés par les outils technologiques. »

Si l’IA n’est donc pas raciste à proprement parler, il est essentiel de prendre du recul quant aux applications qui l’intègrent, pour s’assurer que celles-ci ne renforcent pas des discriminations déjà existantes. Elles pourraient même nous aider, à en croire Rémy Démichelis, « à mettre en lumière des biais qui sont au sein de la société mais dont on n’avait pas encore pris conscience ». Selon lui, cette prise de conscience peut nous servir à utiliser l’IA de manière plus juste et parcimonieuse, « en choisissant sur quels biais s’appuyer et en déterminant les éléments que l’on veut prendre en compte. C’est à cette condition que l’on peut aspirer à un monde plus juste et ne pas reproduire des biais discriminatoires déjà présents dans la société. »

Jp Peyrache

Illustration : Thiriet

Paru dans La Brèche n° 11 (mars-mai 2025)

  1. « Commentl’intelligence artificielle reproduit et amplifie le racisme », The Conversation, 23 novembre 2021 ↩︎
  2. Démichelis Rémy, L’intelligence artificielle, ses biais et les nôtres, Éditions du Faubourg, 2024 ↩︎