« L’Europe peut et doit imposer ses règles »

Devant les changements massifs annoncés par le développement progressif de l’IA, nombreux sont ceux qui demandent un encadrement juridique fort. Le règlement européen sur l’intelligence artificielle, nommé AI Act et voté en mars 2024, est un premier pas qui doit en appeler de nombreux autres dans l’Union, mais aussi au niveau national voire international.

L’IA générative est arrivée avec fracas dans le sillage du lancement de ChatGPT, en novembre 2022. « Quand une innovation survient, on nous dit “ça va changer totalement nos modes de vie, notre économie, etc.” Cela a été vrai pour plusieurs technologies à travers les âges : l’électricité, le télégraphe ou Internet, mais ce n’est pas vraiment le cas ici. Ces effets d’annonce surjoués servent surtout de campagne marketing pour lever des fonds. L’IA générative est un bon exemple puisque ce sont des suites d’algorithmes qui existent depuis longtemps », tempère Raphaël Maurel, maître de conférences en droit public à l’université de Bourgogne, spécialiste en droit international et auteur de Numérique, le défi juridique du siècle1.

« L’IA est un épiphénomène dans la question du numérique. Mais un épiphénomène dans lequel les dérives du numériques sont amplifiées fois mille », résume Louis de Diesbach, éthicien et auteur de Liker sa servitude2. L’IA avance vers toujours plus de récupération de données. C’est justement ce qui l’interpelle : « Lorsque l’on est sur un écran, on a conscience de cette servitude mais on préfère ne pas trop se poser la question. On nous prend nos données sans savoir à quoi elles serviront. Alors pour se rassurer certains se disent “je n’ai rien à cacher”. » Cela permet surtout de se détourner du vrai problème que sont les conséquences liberticides et les dégradations de l’environnement, « mais notre servitude est si confortable ».

« On rejoue David contre Goliath. Et la seule fois où David a gagné, ça s’est retrouvé dans la bible »

Louis de Diesbach, éthicien de la technique

Cet éthicien de la technique rappelle que « nous sommes seuls face à des industries aux moyens colossaux, qui recrutent certains des cerveaux les plus brillants de la planète, justement dans l’objectif de nous rendre accrocs aux écrans. Des études neuropsychologiques sont menées pour que les gens ne décrochent pas. » Dans ce combat face à une servitude souhaitée par les géants de la Tech, nous ne jouons pas à armes égales : « On n’a aucune chance. On rejoue David contre Goliath. Et la seule fois où David a gagné, ça s’est retrouvé dans la bible. »

Avec les réseaux sociaux et les algorithmes d’intelligence artificielle, cela va encore plus loin que l’adage « Si c’est gratuit, c’est nous le produit », pour Louis de Diesbach : « Qui paie Facebook ? Les annonceurs. Vous n’êtes pas le client, ce sont vos données. Nous ne sommes pas le produit mais seulement la source du produit. “Nous sommes des mines à ciel ouvert dans lesquelles les Gafam viennent forer nos données”, comme l’écrit Bruno Patino3. Cette métaphore est bien trouvée car on respecte le minerai que l’on va extraire mais pas la mine. L’important c’est le produit, en l’occurrence le minerai qui, lui, est chouchouté. Mais les mines sont des endroits exploités dans lesquels se déroulent de nombreux désastres écologiques. »

N’étant pas le produit, nous ne représentons pas grand-chose pour ces firmes : « Nous n’avons qu’une valeur en tant que porteur de données. Nous sommes tout en bas de l’échelle de valeur. » Prenons l’exemple d’Instagram : « Meta a fait des études et sait que son application génère une hausse des taux de tentative de suicide chez les jeunes filles. Ils savent mais ils ne changent rien car c’est rentable. C’est en quelque sorte le désastre sur la mine mais les données sont récoltées. »

Alors comment faire pour lutter ? « Je crois beaucoup en la régulation pour encadrer ces multinationales. Est-ce que toute innovation est un progrès ? Je pense que non. Bien sûr, je ne dis pas qu’il faut tout rejeter. L’IA permet de détecter plus rapidement des cancers sur des radios. C’est super. Les réseaux sociaux relient des gens qui ont des passions communes et ont permis l’émergence de mouvements comme le Printemps arabe ou #MeToo. Mais il faut des positions éthiques. Il faut une régulation et une déontologie imposées par la loi », confie Louis de Diesbach.

L’AI Act européen : « Un premier texte qui doit en appeler d’autres »

L’Union européenne travaille sur cette question depuis 2017, avec le vote d’une résolution du Parlement posant la question d’une personnalité juridique de l’IA autonome. Et cela s’est poursuivi avec le règlement sur l’intelligence artificielle nommé AI Act, adopté en mars 2024, comme le rappelle Raphaël Maurel : « Le défi est de se demander ce qu’il va falloir changer, adapter et conserver. Le texte établit des règles harmonisées pour le développement, la mise sur le marché et l’utilisation des systèmes d’IA dans l’Union, en suivant une approche graduelle fondée sur la prévention des risques. Il interdit la commercialisation de systèmes d’IA contraires aux valeurs de l’UE, comme celles permettant la notation sociale des personnes par les autorités, et prévoit la mise en conformité avant toute mise sur le marché. »

Mais ce texte a ses limites : « L’AI Act reste limité et critiquable, puisqu’il autorise l’utilisation de l’IA à des fins répressives dans de nombreux cas. L’efficacité et la légitimité de l’usage de ces technologies ne sont pas discutées. Ce texte ouvre une brèche qui ne se refermera sans doute pas dans l’autorisation de principe de la plupart des systèmes d’IA en matière de lutte contre le terrorisme et de crimes graves. La reconnaissance faciale algorithmique par les autorités n’est par exemple pas interdite explicitement. » Un danger puisque les biais discriminatoires de l’humain sont reproduits et amplifiés par l’IA : « Cette technologie va donc générer des discriminations. L’exception des Jeux olympiques n’était qu’un prélude. Avec l’expérimentation sur la vidéoprotection algorithmique, on ouvre la boîte de Pandore. On n’a toujours pas la moindre étude sur l’efficacité de cette technologie. À chaque technologie, on ne revient pas en arrière. La mécanique avance et ne recule pas. Il faudrait mettre un cliquet et dire stop. Quand les dérives arrivent, c’est trop tard. Il faut ouvrir les débats et ne pas se contenter de dire “c’est de l’innovation donc c’est bien”. »

« Les entreprises du numérique sont à la fois juge et parti »

Juan Sebastián Carbonell, sociologue

Le sociologue Juan Sebastián Carbonell observe que « les entreprises du numérique sont à la fois juge et parti. Elles évaluent elles-mêmes leur technologie. Les régulations ne sont souvent pas contraignantes mais sont des suggestions. Dans l’élaboration de ces recommandations, on trouve ces entreprises du numérique parce qu’on les considère comme seules expertes. Mais aussi parce que le but n’est pas d’arrêter l’innovation sur l’IA, mais de favoriser le développement de ces technologies. L’AI Act est un bon exemple de cela. »

Pour Raphaël Maurel, il ne doit être qu’une première étape : « C’est un premier texte qui doit en appeler d’autres. On ne peut pas s’en arrêter là. Il faudra aller plus loin pour définir des droits et libertés. » Cyberguerre, cyberespionnage… Des questions de politique publique vont émerger : « Il faut réfléchir et prendre de la hauteur. » Un cadre pour réguler les usages existants et anticiper les dérives possibles : « Le droit est toujours en retard, mais il peut fixer les grands cadres qui auraient pu être posés il y a deux ans. »

Néanmoins, cet AI Act représente un signal positif sur d’autres aspects : « C’est un texte qui était indispensable, mais ce n’est qu’un texte de bornage qui pouvait sans doute difficilement aller plus loin. L’UE agit dans son domaine de compétence. Elle raccroche le sujet de l’IA et du numérique au marché intérieur et à la sécurité des produits. Ce texte pose des bornes pour anticiper certains risques. » Mais il n’est pas complet : « Ce texte ne dispense pas les États de s’emparer du sujet. Les gouvernements peuvent et doivent se positionner. » La France semble bien prudente : « Le gouvernement est extrêmement en retard sur les enjeux sociaux de l’IA. Pourtant, ce n’est plus une fracture numérique, c’est un abîme. Sur des questions concrètes comme l’illectronisme, France Services propose des ateliers pour apprendre à faire son CV avec ChatGPT. C’est révélateur d’une classe politique pas assez formée sur ces questions. » L’État doit trouver le bon dosage entre contrainte économique et service public : « C’est une question de curseur. »

« Des argument, on en a ! »

La loi du marché mondialisé est l’argument qui revient en boucle avec la hantise de prendre du retard sur la concurrence. « Effectivement, si vous décidez de marcher pendant que les autres courent, c’est compliqué. Mais avec des règles au niveau européen ce serait différent. On l’a vu avec le RGPD. Au début, on a parlé de frein pour nos entreprises de la Tech. Finalement, énormément de pays nous ont copiés dans la foulée – c’est ce qu’on appelle “l’effet de Bruxelles” », souligne Louis de Diesbach. Pour l’IA aussi, l’Europe pourrait emmener d’autres pays dans son sillage : « En Chine et aux États-Unis, un travail est effectué sur une régulation de l’IA. Aux USA, les Américains se montrent plus inquiets qu’enthousiastes sur l’arrivée de l’IA. En Europe, c’est la même chose. Les politiques doivent s’en emparer, ne serait-ce que pour des visées électoralistes. L’IA peut faire des choses incroyables, mais si on veut la rendre dangereuse, on peut. Les suicides d’adolescents, l’incitation à la haine, aux tueries de masse, la polarisation des débats… Des arguments, on en a ! »

La question de l’éthique de l’IA doit être une thématique universelle, comme le climat : « Il faut fermer le marché à ceux qui ne respectent pas les règles. Oui, l’Europe peut et doit imposer ses règles. Apple ne voulait par exemple pas utiliser un type de connecteur standard, ce qui était une aberration. Apple a fait du lobbying, mais une règle a été établie en Europe, et l’entreprise est passée à l’USB-C. L’Union européenne est le territoire avec le plus haut pouvoir d’achat et les entreprises du monde entier le savent très bien. » L’IA pourrait également entrer dans le cadre du droit international : « Pour la paix on a l’ONU, pour le commerce l’OMC, il pourrait y avoir une organisation internationale du numérique. »

Clément Goutelle

Illustration : Bouzard

Paru dans La Brèche n° 10 (décembre 2024-février 2025)

  1. Raphaël Maurel et Eloïse Petit-Prévost-Weygand, Numérique, le défi juridique du siècle, Les éditions de l’atelier, 2024 ↩︎
  2. Louis de Diesbach, Liker sa servitude : Pourquoi acceptons-nous de nous soumettre au numérique ?, FYP, 2023 ↩︎
  3. Bruno Patino, La civilisation du poisson rouge, Grasset, 2019 ↩︎
« Il faut lancer une grande consultation citoyenne sur les algorithmes »

Pour Louis de Diesbach, la solution pourrait passer par des conventions citoyennes : « J’étais très sceptique, mais bien encadré on a vu que cela permettait des choses superbes. Je pense qu’il faut lancer une grande consultation citoyenne sur les algorithmes, en impliquant des acteurs des réseaux sociaux, de l’intelligence artificielle, des économistes, sociologues… Je pense qu’il faudrait de grandes règles pour tous, les plus larges possibles. Pourquoi pas au niveau des G7 ou G20. »