Depuis dix ans, l’intelligence artificielle (IA) tend à s’ imposer dans tous les secteurs, à tel point, montre une récente étude de l’Apec, que plus d’un cadre sur trois (35 %) l’utilise désormais, dans le cadre professionnel, au moins une fois par semaine. Les métiers du droit n’ont pas échappé à ce qui ressemble à une lame de fond, portée en France par l’ouverture des décisions de justice à la consultation en open data, en 2016.
Cette libération massive de données a donné naissance à une poignée de start-ups dites de la « legal tech » qui exploitent ce matériau en se lançant dans la « justice prédictive » à l’aide d’algorithmes d’apprentissage automatique. Leur promesse ? Anticiper les résultats de contentieux à partir de l’analyse statistique de milliers de décisions passées et – peut-être – gagner du temps sur la longueur des procédures. Si certains en rêvent, d’autres s’en alarment. Ainsi, une tribune publiée en février 2025 dans Le Monde à l’initiative d’un collectif d’associations et de syndicats pointait notamment le risque d’une amplification du racisme systémique : « Aux États-Unis, écrivent-ils, une IA calculant les risques de récidive désignait deux fois plus les accusés noirs comme étant “à haut risque” que les accusés blancs. »
Une expérimentation qui tourne court
Ce n’est pas a priori le seul risque. À partir d’une enquête de terrain menée entre 2019 et 2023 auprès des acteurs de l’IA juridique, Camille Girard-Chanudet (Cnam, Ceet) s’est intéressée aux pratiques des magistrats et des avocats confrontés à l’essor de ces algorithmes. Dès leur arrivée sur le marché, ces outils, rappelle la chercheuse, ont fait l’objet de vives controverses.
Si avocats comme magistrats saluent leur capacité à traiter des millions de décisions judiciaires, il et elles craignent d’être dépossédés de leur savoir-faire et d’être remplacés par des « juges-robots », comme en Estonie, pour les litiges de moins de 7 000 euros. Au risque d’aboutir à des résultats aberrants. Sur ce point, les faits justifient en partie les craintes initiales, et l’expérimentation de ces outils par deux cours d’appel pour la préparation des audiences a échoué. Le revers est significatif puisque, dès 2018, la justice a fait le choix de solutions IA développées en interne et plus ciblées, comme la pseudonymisation automatique des décisions.
Un outil documentaire, pas un oracle
Tout l’intérêt du travail de Camille Girard-Chanudet, autrice d’une thèse sur la justice algorithmique (1), est de mettre en évidence une appropriation différente de l’IA par les avocats. À tel point que la principale start-up du marché revendique, en 2025, plus de 11 000 cabinets clients, sur les 77 000 recensés par la profession. Mais si nombre d’entre eux se tournent vers ces outils, ils le font à leur manière, en les détournant des usages imaginés par leurs concepteurs.
Ainsi, souligne la chercheuse, « ce n’est pas en tant qu’outils algorithmiques, mais plutôt comme moteurs de recherche de jurisprudence que les produits commercialisés par les start-up sont utilisés par les avaocat·es dans les phases préparatoire d’un procès ». Un responsable d’une start-up, dont les propos sont cités dans l’étude publiée par le Centre d’étude de l’emploi et du travail (Ceet), fulmine : « On a des clients, mais ils y vont pas. L’outil prédictif, il est trop en avance sur son temps […]. Nous, on a fait du traitement statistique très puissant, interactif. On a fabriqué une Ferrari. Et nos clients, ils sont en 2 Cv. »
Des logiques d’usage divergentes
De manière assez astucieuse d’ailleurs, les avocats se sont aussi appropriés ces outils dans une logique commerciale, comme des leviers de communication auprès de leurs propres clients : l’IA devient alors une sorte de label de qualité, un gage de modernité qui rassure et crédibilise l’activité sur un marché très concurrentiel. Cet usage de l’intelligence artificielle, autorisé par l’exercice libéral de la profession, est très différent de celui du monde de la magistrature, qui n’est pas soumis aux mêmes contraintes de marché.
C’est la démonstration, souligne Camille Girard-Chanudet, « que ces outils n’existent pas en soi » mais prennent forme dans les relations qui se nouent entre les différents acteurs et les contextes d’usages. Balayant, au passage, le fantasme du « juge-robot » qui pourrait remplacer l’expertise humaine.
- « La justice algorithmique en chantier. Sociologie du travail et des infrastructures de l’intelligence artificielle », thèse sous la direction de Nicolas Dodier et Valérie Beaudouin, soutenue le 4 décembre 2023 à l’Ehess.