Intelligence artificielle, « une technologie dangereuse pour le discours public »
Plusieurs personnalités du monde des nouvelles technologies, Elon Musk (P.-D.G. de SpaceX et Tesla) en tête, ont signé le 29 mars dernier une lettre ouverte appelant à suspendre le développement de l’intelligence artificielle. À l’heure où le robot conversationnel ChatGPT déchaîne les passions, cette démarche surprenante est portée par ceux-là mêmes qui financent son développement. En 2021, deux chercheuses de chez Google alertaient déjà sur les dérives associées à ces technologies. Elles n’ont pas été entendues et ont été débarquées de la multinationale.
Le 14 mars dernier, OpenAI, entreprise californienne spécialisée dans l’intelligence artificielle, a rendu publique la dernière version de son robot conversationnel ChatGPT. Ce fut un électrochoc pour le grand public qui a découvert de nouvelles questions d’éthique : les professions intellectuelles et artistiques seront-elles bientôt remplacées par ces machines d’un nouveau genre1 ? À se réfugier auprès de ces « amis » virtuels, ne risque-t-on pas de se couper du monde, voire pire2 ?
C’est dans ce contexte que des milliers d’experts ont appelé les laboratoires de recherche à suspendre le développement des systèmes d’intelligence artificielle, dans une lettre ouverte largement relayée, faisant état d’un « risque pour la civilisation et l’humanité ». Elon Musk, par ailleurs cofondateur d’OpenAI, en est un signataire actif. « Il a pourtant énormément financé le développement de ces outils. C’est schizophrénique », commente Aurélien Bellet, chercheur à l’Institut national de recherche en informatique et en automatique (INRIA).
Deux ans plus tôt, une initiative similaire a eu lieu sans connaître le même retentissement. Quatre chercheuses – dont Margaret Mitchell et Timnit Gebru, à l’époque toutes deux chez Google – publient un article3 alertant quant aux dangers soulevés par ces robots conversationnels. Et ils sont, selon elles, multiples.
Un coût environnemental démesuré pour l’entraînement d’un robot conversationnel
En premier lieu, les chercheuses tiennent à mettre en évidence le coût, financier comme environnemental, de ces technologies. Tandis qu’un être humain est responsable en moyenne de l’émission de 5 tonnes équivalent CO2 par an, la procédure d’apprentissage d’un tel robot conversationnel aurait pour conséquence l’émission de 284 tonnes. Ceci s’explique par la quantité phénoménale de données utilisées pour « entraîner » ces intelligences artificielles.
« Ces robots conversationnels sont fondés sur ce que l’on appelle des gigamodèles de langue. Ce sont de très gros modèles, avec des milliards de paramètres, qui ont besoin de se “nourrir” d’énormément de données, souvent issues d’Internet », détaille Aurélien Bellet.
Par ailleurs, selon les autrices, « la taille des corpus ne garantit pas la diversité ». D’après elles, si « Internet est un espace virtuel large et divers, […] il devrait être représentatif des différentes manières qu’ont les personnes de voir le monde. » Cependant, elles expliquent que « les voix des personnes les plus susceptibles de porter un point de vue hégémonique sont aussi les plus susceptibles d’être intégrées par l’algorithme », entraînant ainsi une « surreprésentation de propos misogynes ou vantant le suprémacisme blanc ». Ceci étant dû en grande partie au caractère peu accueillant pour certaines catégories de population des plus célèbres plateformes d’échanges en ligne (Twitter, Reddit…), largement utilisées pour entraîner ChatGPT et consorts.
Des biais sociaux, amplifiés par les algorithmes d’intelligence artificielle
Un des autres écueils liés au développement de telles technologies, si l’on en croit les chercheuses, concerne le renforcement des biais sociaux. « Ces modèles sont entraînés à l’origine sur des données issues d’Internet, données qui sont elles-mêmes biaisées car représentatives des discriminations et des stéréotypes au sein de la société : le terme infirmier est souvent utilisé au féminin, tandis que le terme docteur est souvent associé au masculin par exemple. Les robots conversationnels, entraînés pour générer des textes au plus près de ceux qui leur sont présentés, vont avoir tendance à renforcer ces biais », explique Aurélien Bellet.
Dans leur document, les chercheuses s’inquiètent ainsi des impacts potentiels sur le débat public que pourrait entraîner la mise en place de ces outils, notamment vis-à-vis des populations déjà stigmatisées. Mathilde Saliou, journaliste spécialisée dans les nouvelles technologies, abonde dans le même sens : « Il est écrit dans les rapports techniques de ChatGPT que cette technologie est dangereuse pour le discours public, car il s’agit d’un outil de désinformation massive. Pourtant, de nombreuses entreprises du numérique sont en train de le mettre en place dans des applications destinées au grand public, ne voyant que l’intérêt économique direct. »
Deux chercheuses licenciées par Google
En conclusion, les autrices de l’article invitent à faire un pas de côté et à mettre les bénéfices potentiels de ces applications en perspective avec les risques dont elles sont porteuses, parmi lesquels « l’entretien des stéréotypes, le dénigrement et l’augmentation de l’idéologie extrémiste ». Elles appellent ainsi la communauté scientifique à s’interroger sur la pertinence de « ces applications qui visent à imiter de manière crédible les humains », rappelant que les propos générés, potentiellement faux ou discriminants, peuvent parfois être pris pour argent comptant, souvent au détriment de groupes sociaux les plus fragilisés. Ce que confirme Aurélien Bellet : « Ces robots n’ont pas de notion de source. Ils sont ainsi tout à fait capables de générer des réponses fausses au milieu de propos véridiques. Pour l’instant, on ne sait pas trop comment éviter que cela arrive. »
Les réserves émises par les chercheuses n’ont cependant pas été du goût de tout le monde. Deux des coautrices, Margaret Mitchell et Timnit Gebru, qui faisaient alors partie de l’unité affectée à l’éthique dans l’intelligence artificielle chez Google, ont ainsi été licenciées, officiellement pour des raisons indépendantes de la publication de leurs travaux. Les intérêts économiques primeraient-ils sur la prise en compte des enjeux éthiques? C’est ce que semble affirmer Mathilde Saliou : « En ce qui concerne l’intelligence artificielle, on est en train de faire d’énormes progrès, ce qui est remarquable pour l’avancée de la connaissance scientifique. Toutefois, on cherche immédiatement à marchandiser ces technologies, sans prendre le temps de s’interroger sur les éventuels effets pervers qu’elles induisent. » La « pause » réclamée par Elon Musk, Steve Wozniak4 et d’autres en serait l’occasion.
Jp Peyrache
Illustration : Fred Z
1 « Intelligence artificielle : les tâches où ChatGPT peut nous remplacer », France Info, 29 mars 2023
2 « Un Belge se suicide après avoir trouvé refuge auprès d’un robot conversationnel », Le Figaro, 29 mars 2023
3 « On the Dangers of Stochastic Parrots : Can Language Models Be Too Big ? », FaccT, 21 mars 2021
4 Informaticien états-unien, cofondateur d’Apple
Les autorités publiques « loin du compte » Les progrès rapides de l’intelligence artificielle font logiquement émerger de nouvelles questions de société. Pour autant, l’appel de nombreux experts à une « pause » interroge quant à sa pertinence, comme l’exprime Aurélien Bellet : « Est-ce que décréter que l’on arrête le développement est souhaitable? Est-ce efficace? Je ne sais pas si c’est la solution. » Selon le chercheur, qui partage les inquiétudes relayées, il est certain que ces technologies « ont le potentiel d’affecter de nombreux emplois, sans que l’on sache véritablement estimer les conséquences à l’heure actuelle ». Ainsi, d’après une étude récente de la banque états-unienne Goldman Sachs, l’intelligence artificielle – dans le cas où elle « tiendrait toutes ses promesses » – pourrait entraîner l’automatisation de 300 millions d’emplois à l’échelle mondiale. Pour Aurélien Bellet, « il est urgent que les autorités publiques s’emparent de ces questions-là, car pour le moment on est loin du compte ».
L'Italie interdit ChatGPT Lancé en novembre dernier, ChatGPT, le robot conversationnel d’OpenAI, est utilisé pour générer du texte de manière autonome, en imitant de manière bluffante les styles et sujets de conversation humains. Il a récemment été au centre de l’actualité en raison des questions nouvelles qu’il pose quant au travail scolaire par exemple. Si les pouvoirs publics ont semblé pris de court par cette technologie novatrice, l’Italie est devenue, le 31 mars, le premier État occidental à en bloquer l’usage. Selon l’agence de protection des données du pays, l’application d’OpenAI ne respecte pas le Règlement Général pour la Protection des Données (RGPD). Si d’autres États européens pourraient emboîter le pas des autorités transalpines, il est à noter que ChatGPT est déjà bloqué dans plusieurs autres pays comme la Chine, la Corée du Nord, l’Iran ou encore la Russie.