Colloque de l’institut Presaje – 25 juin 2019

Nous avons assisté à un colloque organisé par l’Institut Presaje, think tank indépendant, « dédié à l’analyse des relations complexes entre l’économie, le droit et la justice ». Plusieurs magistrats, avocats, universitaires et chercheurs de différentes nationalités étaient rassemblés à cette occasion dans les locaux de la Cour de cassation, autour du thème de l’IA et des espoirs et inquiétudes qu’elle suscite au sein du monde judiciaire.

La question titre « Un monde judiciaire augmenté par l’intelligence artificielle ? » introduit le questionnement auquel les deux tables rondes étaient invitées à débattre.

Bruno PIREYRE, Président de chambre, a introduit le débat par un panorama historique de l’IA, mettant en balance les avantages attendus d’une analyse plus fine qui devrait renforcer la sécurité juridique et les risques d’une perte de la liberté de décision des acteurs du monde judiciaire. Comme toute nouvelle technologie, l’IA doit être abordée sans fausse peur, mais avec prudence, sans angélisme. Parmi les initiatives concourant à l’utilisation raisonnée de l’IA, il a mentionné la transparence des algorithmes, citée au rapport Cadiet de 2017 sur l’open data des décisions de justice, ainsi que la charte éthique européenne de la CEPEJ sur l’utilisation de l’intelligence artificielle dans les systèmes judiciaires et dans leur environnement.
L’allocution de Bruno PIREYRE est en ligne sur le site de la Cour de cassation.

L’IA, nouvel acteur judiciaire ?

Une première table ronde, modérée par thomas CASSUTO, Magistrat, vice-président de l’institut PRESAJE, répondait à cette question par plusieurs témoignages exposant la place occupée aujourd’hui par l’IA :

  • Maître Nathalie NAVON-SOUSSAN a témoigné de l’utilisation qu’elle fait des outils prédictifs pour préparer ses plaidoiries en s’appuyant sur la probabilité de succès des affaires qu’elle soumet à analyse. L’avocat comme tout professionnel a besoin d’outils, et ce type d’outil lui permet de conseiller ses clients de façon plus fine.
  • Fabien TARISSAN, chargé de recherche CNRS, professeur attaché à l’ENS a expliqué les mécanismes d’apprentissage du deep learning. Pour que les machines puissent apprendre à partir des données, encore faut-il que ces données soient, au départ, décrites par un humain. La question des biais issus de données d’apprentissage insuffisantes ou mal formées est souvent citée, avec l’exemple de l’algorithme COMPASS utilisé aux US pour estimer les risques de récidive des détenus.
  • Yannick MENECEUR, Magistrat détaché au Conseil de l’Europe, a présenté les 5 principes de la charte éthique de la CEPEJ :
    • Respect des droits fondamentaux,
    • Non-discrimination,
    • Qualité et sécurité,
    • Transparence, neutralité et intégrité intellectuelle,
    • Maîtrise par l’utilisateur.
  • Soraya AMRANI MEKKI, directrice de l’axe justice judiciaire, amiable et numérique de l’Université Paris Nanterre, a exposé les difficultés d’usage de l’IA en matière de mode alternatif de règlement des conflits, tels que définis par la loi pour la réforme de la justice du 23 mars 2019. Ladite loi autorise et précise le fonctionnement des services en ligne fournissant des prestations de conciliation, médiation ou d’arbitrage. Elle crée une confusion entre les différents modes de règlement alternatif des conflits que sont le règlement à l’amiable et l’arbitrage. Le jeu « amiable » viendrait à être faussé par la proposition d’une décision algorithmique, à prendre ou à laisser…. Et comment garantir l’obtention d’un consentement éclairé sur une telle plateforme ? Enfin, la possibilité de certification de ces plateformes reste à préciser. Beaucoup de questions restent en suspens.
  • Adrien BASDEVANT, avocat, auteur de « l’empire des données », rappelant le célèbre article de Laurence LESSIG « code is law », a dénoncé la mise en concurrence des codes informatiques, juridiques et éthiques.

Vers une justice automatisée ?

Face à cette introduction inéluctable de l’IA dans le monde judiciaire, la seconde table ronde, également modérée par Thomas CASSUTO posait la question des avantages et risques de l’automatisation.

  • Mrs Kaï HÄRMAND, du ministère de la justice d’Estonie, a témoigné du déploiement dans son pays de procédures automatisées pour le règlement de délits mineurs, allégeant le travail des juges et greffiers qui peuvent ainsi se consacrer à des affaires plus complexes. Bénéfices attendus : réduction des délais de traitement des petits litiges et réduction du coût de la justice.
  • Michel MORVAN, président de Cosmo Tech et de l’institut de recherche technologique System X, a tenu à nous indiquer la différence fondamentale entre le fonctionnement du cerveau humain et celui d’une intelligence artificielle : le cerveau humain sait reconnaître, et en cela il fonctionne sur un mode boîte noire, tout comme une IA. Mais, en plus, il sait raisonner, lier, inférer, projeter, ce qu’une IA ne sait pas faire à partir de rien. Les données ne suffisent pas, comme beaucoup le croient, à faire fonctionner une IA. Il lui faut aussi un modèle qui lui fournisse le raisonnement. C’est dans la modélisation que réside la difficulté dans le domaine judiciaire et c’est là que M. MORVAN situe le principal risque, bien plus que dans les biais issus de la sélection des données.
  • Christiane FERAL-SCHUHL, Présidente du conseil national des Barreaux, nous a rappelé que, dans le système de droit continental, les lois changent fréquemment, remettant alors en cause la jurisprudence antérieure. L’utilisation d’outils de justice prédictive serait ainsi plus adaptée au système de Common Law où c’est la jurisprudence qui est prépondérante. Le risque de glissement vers un système de type commmon law et de fixation des règles de droit n’est pas exclu. Le rôle humain de l’avocat doit être préservé, ainsi que sa liberté de déconstruire la jurisprudence, en plaçant chaque affaire dans son contexte particulier. Afin de limiter le risque de biais issu des données, Me FERAL-SCHUL insiste sur la nécessité de disposer d’une base de données jurisprudentielle complète, représentative et contrôlée. À cette fin, la Cour de cassation et le Conseil national des barreaux ont demandé dans une déclaration conjointe à ce que l’open data des décisions judiciaires soit placée sous la responsabilité exclusives de la Cour de Cassation.
  • Christophe REGNARD, Magistrat, Président d’honneur de l’Union internationale des Magistrats a également pointé le caractère mouvant du droit français et les risques de l’utilisation de l’IA : justice figée, déshumanisée, erreurs judiciaires induites par le caractère probabiliste des recommandations formulées par l’IA.

Conclusion

Paul NEMITZ, Principal Advisor, DG Justice Commission européenne a conclu cette superbe et très dense matinée par un encouragement général à la France et à l’Europe à investir dans la maîtrise de ces technologies, dans le respect de leurs valeurs éthiques et démocratiques.