Peut-on faire confiance aux algorithmes au tribunal ?
Cela fait déjà quelques années qu’est apparue la justice dite «prédictive». En croisant des données de jurisprudence, en comparant des affaires similaires, certains logiciels permettent désormais d’anticiper plus ou moins précisément un verdict, le montant des indemnités ou la composition d’un jury. Fort de ces avancées technologiques, de nouvelles questions sont soulevées. Peut-on envisager qu’un verdict judiciaire soit être un jour délivré par une intelligence artificielle (IA)? Nous dirigeons-nous vers une nouvelle ère de «juges robots»? Si cela pourrait être le rêve de tout technophile, cela ressemble aussi dangereusement aux cauchemars des fans de science-fiction. Où se situe donc la vérité?
Des conclusions fallacieuses
En décembre 2018, le Conseil de l’Europe, via le groupe de travail de la commission européenne pour l’efficacité de la justice (CEPEJ), est née la première charte éthique européenne sur l’utilisation de l’IA dans les procédures judiciaires. Ce groupe de travail avait mis en évidence les limites actuelles des intelligences artificielles. Un algorithme ne pouvant jamais être absolument neutre, il risque à tout moment de se déséquilibrer et de basculer dans l’absurde, notamment en exacerbant les inégalités sociales et, par conséquent, entraîner des discriminations obligatoirement incompatibles avec la notion de justice.
Aux États-Unis par exemple, un logiciel nommé Compas est d’ores et déjà utilisé. L’objectif était d’aider les juges américains en étudiant les probabilités de récidive des accusés. Seulement, le logiciel utilise d’un algorithme créé par la société Northpointe Inc qui refuse catégoriquement de révéler sa formule. Tout ce que l’on sait, c’est que l’IA analyse une centaine de questions posées à l’accusé afin de définir son profil familial, éducatif, financier, etc. Le site d’investigation ProPublica a enquêté sur le fonctionnement et les résultats de Compas, et le verdict était sans appel : l’intelligence artificielle est discriminatoire, les accusés noirs se voient attribuer à tort un risque de récidive plus élevés que les blancs, et entérine ainsi les inégalités raciales déjà très présentes dans les décisions de justice aux USA.
La morale de la machine
D’un point de vue purement technique, remplacer un juge par une IA est donc déjà presque mission impossible. En utilisant l’open data («les données ouvertes») judiciaire, il est impératif de pouvoir, sans aucun doute possible, protéger une gigantesque masse de données personnelles de toute fuite, commercialisation ou piratage. De plus, en utilisant uniquement des valeurs statistiques, on met fatalement de côté la notion de seconde chance.
Le débat s’envole donc très vite sur le terrain moral, éthique et même philosophique. De manière générale «le concept du robot fait peur», estime Christophe Collard, professeur de droit à l’Edhec. Comment faire confiance à un algorithme obscur? Comment accepter la décision d’un calcul mathématique qui demeure le secret de fabrication d’une entreprise privée?
Une telle justice serait figée, inaltérable, absolue et rigide. Il semble indispensable que les professionnels de la justice, juges ou avocats, puissent remettre en question les résultats. C’était d’ailleurs un des points fondamentaux de la charte rédigée par le Conseil d’Europe. Nul ne doit subir le résultat de l’IA. Pouvoir conserver un esprit critique et une remise en question du système, qualités encore propres à l’humain et absent de n’importe quel algorithme, est fondamental pour éviter les abus d’une IA. Bien qu’il soit impossible d’anticiper les progrès technologiques que nous réserve le futur, il parait clair que pour le moment, seul l’humain peut juger ses pairs de manière égale et sensible.
Si l’erreur est certes humaine, elle peut être remise en question et corrigée par l’homme. En revanche, si une machine possède en son sein un défaut de conception, elle ne pourra que s’entêter dans son erreur jusqu’à l’absurde. Cependant, malgré ces nombreuses réserves, l’arrivée de ces technologies dans les tribunaux peut être bénéfique.
Une lente installation
Si le juge doit conserver la maitrise de la sentence, les algorithmes peuvent tout de même être utiles et efficaces. Le but de ces algorithmes et IA serait non pas de supplanter les tribunaux, mais de simplement les désencombrer. La technologie permet en effet de compiler une masse gargantuesque de données à une vitesse inégalable. Ce traitement de données permet d’éclairer les différents professionnels de la justice, principalement sur la jurisprudence, et peuvent donc aider à la prise de décision, alléger la charge de travail, tout en restant sous le contrôle de la logique et la morale humaine. Évidemment, la relation de confiance serait renforcée si les sociétés qui produisent ces algorithmes rendaient leur conception publique plutôt que de brandir en bouclier le secret de fabrication.
Finalement, si le «fantasme» du juge robot semble encore lointain, il est indéniable que les algorithmes ont bel et bien trouvé leur place au sein des procédures judiciaires. Si la transparence n’est pas encore totale, la prolifération d’enquêtes ou d’initiatives similaires à la charte européenne, nous permettra, un jour peut-être, d’obtenir le délicat équilibre entre l’intelligence humaine et artificielle. Une symbiose de deux logiques qui sera primordial pour atteindre le niveau de confiance nécessaire au bon fonctionnement de nos systèmes judiciaires.