Justice prédictive : le juge et l’avocat-robot aux portes des tribunaux
La justice n’échappe pas au développement de l’intelligence artificielle (IA). Si, en vertu des législations française et européenne, une décision ne peut aujourd’hui être rendue par un dispositif automatisé, cette technologie commence à servir de guide à certains professionnels du droit.
Imaginez. Vous comparaissez devant le juge à la suite d’une affaire d’excès de vitesse. À la barre, vous enfilez un casque « intelligent » qui vous dicte dans l’oreille les arguments à avancer, grâce au travail de l’intelligence artificielle. C’est cet outil digne d’un film de science-fiction qu’avait imaginé le New-Yorkais Joshua Browder, en 2023. Ses smart glasses n’ont finalement jamais été autorisées. Elles montrent toutefois une réalité : l’intelligence artificielle est aux portes des tribunaux… et y est même déjà entrée. En Colombie, en janvier 2023, un juge a annoncé avoir utilisé le fameux outil d’IA générative ChatGPT afin de rédiger son délibéré. En Chine, certains litiges, notamment financiers, sont même présentés directement en ligne à un programme intelligent, capable de déterminer les textes applicables à l’affaire. Ces épisodes ponctuels présagent-ils, à terme, d’une justice remise entre les mains de l’intelligence artificielle ? Nos tribunaux seront-ils investis par des juges et des avocats « robots » ?
Ce scénario semble encore lointain, s’il ne relève pas carrément du fantasme. Cependant, l’AI Act, adopté cet été par les instances européennes, laisse la porte entrouverte : « Dans [ce texte], le fait qu’un système d’IA rende la justice ne figure pas dans les pratiques interdites », rappelait Aurore Hyde, professeure de droit privé, lors d’une conférence sur la cyberjustice organisée par l’Institut des études et de la recherche sur le droit et la justice, en décembre 20231. La loi européenne place néanmoins ce secteur comme étant à « haut risque ». Elle impose ainsi de fortes obligations mais seulement aux solutions dont se serviraient des magistrats. Pourtant, les outils d’IA juridique peuvent être utilisés par bien d’autres professions du droit.
« Il n’y a aucune transparence sur la construction de ces algorithmes »
Camille Girard-Chanudet, autrice de la thèse La justice algorithmique en chantier
Dans tout bon outil d’IA juridique, il faut du carburant. Plusieurs acteurs de l’IA et du secteur juridique se sont saisis de l’annonce de la mise en accès libre des décisions de justice, à la faveur de la loi « pour une République numérique », promulguée le 7 octobre 2016. D’ici 2026, toutes les décisions des différents niveaux de juridiction – soit 3 à 4 millions de décisions par an – devraient en effet passer en accès libre. Aujourd’hui, certaines de ces solutions d’IA juridique sont capables de résumer le dossier d’un client, d’élaborer des statistiques sur des affaires similaires, ou encore de proposer des moteurs de recherche sophistiqués, qui permettent de fournir une réponse à une question de droit en s’appuyant sur différents textes juridiques.
« Aujourd’hui, il n’y a aucune transparence sur la construction de ces algorithmes », regrette Camille Girard-Chanudet, autrice de la thèse La justice algorithmique en chantier2, qui estime qu’il est donc difficile d’évaluer la pertinence et l’efficacité de ces outils. De ces boîtes noires ressortent des réponses différentes à une même question, mais aussi des « hallucinations ». En 2023, un avocat New-Yorkais s’est ainsi fait piéger par ChatGPT, en citant dans son mémoire des décisions tout bonnement inventées par l’IA. Quelques mois plus tard, c’est un magistrat brésilien qui présentait un jugement rédigé par le même outil, lui aussi truffé d’erreurs. « Il faut tout vérifier », affirme Thierry Wickers, avocat à Bordeaux
Autre point de vigilance : la confidentialité des données. La majorité des entreprises de legal tech qui offrent ces services d’IA juridique s’appuie sur les modèles d’Open AI, l’entreprise à l’origine de ChatGPT. Le risque de voir les données utilisées dans ces outils captées par le géant américain n’est pas nul, même si des configurations spécifiques peuvent les limiter voire les empêcher. « Les données de nos clients sont sécurisées et cryptées, et restent sur des serveurs protégés, en Europe », rassure Louis Larret-Chahine, fondateur de la start-up Predictice, qui propose ses services aux professionnels du droit.
« Les données peuvent être indexées au préalable, avant d’être exposées au service d’Open AI, ce qui améliore la qualité et la fiabilité des résultats générés », détaille Sumi Saint-Auguste, de la direction de l’innovation chez l’éditeur Lefebvre-Sarrut. « Lorsque la requête passe par Open AI GPT, les données sont pour ainsi dire anonymisées puisque décorrélées des données identifiantes des utilisateurs », poursuit celle qui est aussi présidente d’Openlaw, association de collaboration entre professionnels du droit. Face au quasi-monopole d’Open AI, la juriste espère cependant voir se développer des modèles en open source, accessibles gratuitement à tous, ce qui permettrait de rééquilibrer la concurrence. En attendant, seuls les cabinets ayant les ressources suffisantes peuvent développer des outils internes, réellement adaptés à leurs besoins, en y intégrant leurs propres données. Les autres se contentent de s’abonner, s’ils le peuvent, aux services proposés soit par des éditeurs juridiques historiques, à qui ils semblent accorder davantage leur confiance, soit à des startups, plus controversées, qui ont toutefois trouvé leur place dans ce secteur.
La crainte d’un appauvrissement du raisonnement juridique
Selon Me Wickers, le gain de temps apporté par ces assistants virtuels est indéniable, lui permettant ainsi de se consacrer à des tâches à plus forte valeur ajoutée. Mais confier ses recherches juridiques à une IA implique d’accepter le tri fait par celle-ci. « Parfois, l’outil passe à côté d’éléments. Certaines décisions importantes n’apparaissent pas du fait d’un mauvais étiquetage ou d’une mise à jour tardive… », rapporte Aurore Hyde. L’apparition d’un document juridique dans la réponse de l’IA est le fruit de multiples choix de paramétrages, qui ne peuvent être complètement neutres.
« Plus vous avez des données, plus les risques de faire des corrélations non pertinentes augmentent », ajoute la professeure. Il appartient donc à l’avocat de vérifier la cohérence des réponses de son logiciel, mais aussi « de ne pas se contenter contenter des pistes de réflexion de l’IA », prévient Sandrine Vara, avocate interrogée dans Le podcast du jeune avocat3. Ce comportement pourrait conduire à un appauvrissement du raisonnement juridique, alertent les deux professionnelles : « Si l’avocat s’enferme dans ce qui a été jugé avant, il fait l’inverse de ce qu’on attend de lui, remarque Aurore Hyde. Car en théorie, il doit d’abord réfléchir à son argumentation, puis rechercher la jurisprudence qui pourra soutenir ses propos. »
Une étape vers « une justice complètement numérisée »
L’un des objectifs de l’IA juridique est de désengorger les tribunaux, en accélérant les procédures mais aussi en évitant certains procès. Grâce à des affaires similaires, les solutions de « jurimétrie » – ou de « justice prédictive » – peuvent en effet calculer les probabilités de remporter un procès, ou le montant de dommages et intérêts espéré. Ces outils statistiques peuvent alors favoriser les règlements de conflits à l’amiable, à travers des transactions monétaires. Comme le montre dans sa thèse Camille Girard Chanudet, les compagnies d’assurance se sont emparées de ces IA. « On peut craindre que ce soit la première étape d’une justice complètement numérisée », commente Aurore Hyde. Ou même un premier pas vers une déjudiciarisation de certaines affaires, laissées aux mains d’assurances, ou même de start-ups spécialisées, aidées par l’IA ? « En principe, ce serait possible, mais ce service serait alors apparenté à une consultation juridique. Ces entreprises devraient alors satisfaire aux exigences des professions juridiques, qui sont extrêmement réglementées », nuance Aurore Hyde.
« La beauté de la justice serait soi-disant le biais humain, mais celui-ci n’est pas toujours intéressant »
Stéphane Dhonte, avocat
Les tribunaux eux-mêmes se tourneront-ils un jour vers des outils d’IA ? Diverses expérimentations visant à aider les magistrats en France se sont révélées infructueuses. En outre, la loi actuelle empêche qu’une décision de justice soit prise par un système automatisé. Mais au Canada, ou encore en Chine, la résolution de certains litiges est aujourd’hui confiée à l’intelligence artificielle : « Certains délits et contraventions sont évidemment un champ d’application tout trouvé », affirme Sumi Saint-Auguste. Stéphane Dhonte, avocat, la rejoint : « La beauté de la justice serait soi-disant le biais humain, mais celui-ci n’est pas toujours intéressant. Et on dit qu’on va retirer de l’humanité là où il n’y en a pas : aujourd’hui, beaucoup d’avocats déposent leur dossier et ne plaident pas, et des procès tels que les procédures de divorce, durent quelques minutes seulement. »
Mais il serait illusoire de penser que le biais humain pourrait être effacé par l’IA, qui est elle-même le fruit de choix humains. L’outil Compas, aux États-Unis, l’illustre bien : destinée à évaluer le risque de récidive des condamnés, cette IA a été dénoncée pour ses biais racistes. Selon une enquête réalisée par des journalistes du média d’investigation indépendant ProPublica4, les condamnés noirs étaient deux fois plus dénoncés à tort comme futurs récidivistes par ce programme que les Blancs. À l’inverse, les condamnés blancs étaient plus souvent désignés à tort comme présentant de faibles risques de récidive que les Noirs. Si l’IA gagne sa place comme juge, qui pourra être tenu responsable de tels biais, ou d’erreurs ? Pour les professionnels interrogés, l’IA doit donc avant tout rester un outil d’aide à des problèmes précis – recherche documentaire, statistiques –, soumis à la vérification de ses utilisateurs, sans se substituer à eux. Mais parviendront-ils à retenir la machine qui s’est enclenchée ?
Camille Jourdan
Illustration : Vincent Chambon
Paru dans La Brèche n° 10 (décembre 2024-février 2025)
- Conférence Cyberjustice Europe, Conseil de l’Europe, 24 novembre 2023 ↩︎
- Camille Girard-Chanudet, La justice algorithmique en chantier. Sociologie du travail et des infrastructures de l’IA. Thèse de sociologie, EHESS, 2023. ↩︎
- « IA et avocats : quels usages, quels risques, quelles précautions », Le podcast du jeune avocat, saison 1, épisode 13, 15 juillet 2024 ↩︎
- « Machine Bias », ProPublica, 23 mai 2016 ↩︎