Une réglementation européenne de l’IA aux mains des acteurs du marché ?

Après avoir été en première ligne sur la question des données personnelles, avec le RGPD (Règlement général sur la protection des données) adopté en avril 2016, l’Union européenne va prochainement encadrer les systèmes d’intelligence artificielle par le biais de « l’IA act ». Ce texte, en gestation depuis deux ans, vise ainsi à catégoriser les différents types d’IA selon leur dangerosité pour mieux les contrôler. Avant même son adoption définitive, cette réglementation est vectrice de tensions, entre protection des citoyens et encouragement de « l’innovation ».

En ce qui concerne la réglementation de l’intelligence artificielle, l’Europe « n’a pas de temps à perdre ». Ces propos de Margrethe Vestager, vice-présidente de la Commission européenne, illustrent la volonté de l’Union de s’emparer d’une problématique toujours plus prégnante, à mesure que se multiplient les développements technologiques. Il est vrai que de l’eau a coulé sous les ponts depuis la présentation du texte initial de « l’IA act » en avril 2021, objet de plus de 3 000 amendements depuis. Après avoir passé plusieurs étapes importantes, notamment le vote du parlement européen le 14 juin dernier, le texte pourrait finalement être promulgué avant la fin de l’année.

DES SYSTÈMES À « RISQUES INACCEPTABLES » OU À « HAUT RISQUE »

Celui-ci propose de répartir les IA en quatre catégories, en fonction d’un niveau de dangerosité supposé. Ainsi, les systèmes établissant une « note sociale » ou ceux d’identification biométrique à distance et en temps réel « dans des espaces accessibles au public à des fins répressives », entre autres, seraient considérés comme « à risques inacceptables » et purement et simplement interdits. D’autres systèmes, présentés comme « à haut risque », seraient autorisés sous réserve de contrôles effectués par des agences nationales. Ces dispositifs, identifiés comme ayant une « incidence préjudiciable significative sur la santé, la sécurité et les droits fondamentaux des citoyens » incluent notamment les machines médicales, les voitures autonomes ou les systèmes de reconnaissance faciale.

La troisième catégorie concerne les dispositifs présentant des « risques spécifiques de manipulation », au premier rang desquels les outils de génération de contenu, comme les « trucages vidéo ultra-réalistes », à l’origine de craintes quant à une désinformation massive1. Les systèmes relevant de cette catégorie seraient ainsi assortis d’obligations de transparence, à savoir un avertissement quant au fait que leur contenu est « généré par des moyens automatisés » et la divulgation des données, protégées par les droits d’auteurs, utilisées pour entraîner le modèle. Enfin, tous les autres systèmes d’IA, comme ceux embarqués dans les objets connectés, ne feraient l’objet d’aucune mesure particulière, en dehors du respect de la loi européenne, notamment le RGPD.

LE PDG D’OPENAI S’INQUIÈTE POUR « L’INNOVATION »

Si l’EDRi (European Digital Rights, association d’ONG européennes de défense des droits numériques) s’est félicitée que « l’Union européenne montre sa volonté de mettre l’intérêt des individus avant les profits », ce projet de réglementation ne fait pas l’unanimité chez les industriels du secteur. Alors qu’il réclame une régulation de la part du Sénat états-unien, Sam Altman, le PDG d’OpenAI ‒ l’entreprise à l’origine du robot conversationnel ChatGPT ‒ s’est exprimé à ce sujet auprès de l’agence Reuters le 24 mai dernier :

« Si nous pouvons nous conformer, nous le ferons. Sinon, nous cesserons d’opérer en Europe. »

Il s’est repris deux jours plus tard, affirmant qu’il fallait selon lui « trouver le bon équilibre entre régulation et innovation ».

Si l’Union semble prendre au sérieux les dangers de cette technologie, il lui faudra résister aux diverses pressions pour proposer un règlement réellement protecteur des citoyens. Pour Félix Tréguer, chercheur associé au Centre internet et société du CNRS, « ce texte, qui a fait l’objet d’un lobbying intense, est présenté comme une manière pour l’Europe d’être à la pointe de la réglementation de l’IA, mais la vérité est qu’il sert avant tout à créer les conditions d’un marché ».

Le chercheur, qui s’inquiète d’une législation « se concentrant sur les aspects les plus controversés sans savoir bien anticiper l’ensemble des problèmes structurels que va impliquer la généralisation de ces technologies », déplore ainsi « le rôle laissé aux organismes privés de standardisation, confiant ainsi une large part de la régulation de l’IA aux acteurs du marché ». Ce que confirme l’EDRi, ayant relevé une modification apportée récemment au texte, permettant « aux développeurs eux-mêmes [de] décider si leur système est suffisamment “significatif” pour être considéré comme à hauts risques ». Un « drapeau rouge pour l’application de cette législation » selon l’organisation. Félix Tréguer, quant à lui, estime que ce texte « permet avant tout de se donner bonne conscience, et de construire l’acceptabilité sociale de l’IA, qui soulève des craintes justifiées ».

Jp Peyrache

Illustration : Yetiz

  1. « Intelligence artificielle : “Une technologie dangereuse pour le discours public” », La Brèche n° 3, mai-juin 2023 ↩︎