La conférence internationale de Malines des 23 et 24 octobre 2020 : L’intelligence artificielle dans l’expertise judiciaire

par Béatrice Deshayes

Non seulement nous avons beaucoup appris sur l’intelligence artificielle grâce aux différents orateurs éminents de ces deux journées, mais ils nous ont également ouvert les yeux sur les perspectives infinies offertes par l’intelligence artificielle dans les prochaines années, dans le domaine de la justice comme dans de nombreux autres domaines.

Introduction par Etienne Claes

Les différentes tables rondes ont abordé des questions encore inexplorées :

  • Que peut apporter l’IA à l’expertise judiciaire ?
  • Comment la justice peut-elle être rendue plus efficace grâce à l’IA ?
  • Quels sont les défis de l’utilisation de l’IA dans la justice ?
  • Pourquoi les experts judiciaires devraient-ils s’intéresser à l’IA ?
  • Quel type d’expertise peut être intégré dans les systèmes d’IA ?
  • Quels sont les aspects éthiques de l’utilisation de l’IA ?
  • Les preuves d’experts vont-elles disparaître à cause de l’IA ?

Les usages de l’IA

Pendant les deux jours de la conférence et les présentations de haut niveau et très impressionnantes données sur différents sujets, nous avons appris qu’aujourd’hui l’IA est déjà utilisée dans de nombreux domaines :

  • la reconnaissance d’images, l’imitation de style (l’IA est bonne pour détecter des modèles et traiter d’énormes volumes de données, mais mauvaise dans la prise en compte des spécificités d’une situation – il est encore facile de se faire avoir par un humain !) ;
  • les Jeux (échecs et go) ;
  • les Chatbots – avec des performances particulièrement avancées, par exemple dans l’assistance médicale à la détection de la dépression ou de l’autisme ;
  • les véhicules autonomes ;
  • la traduction automatique, y compris pour des textes juridiques complexes ;
  • l’évaluation des biens immobiliers ;
  • le diagnostic médical et les soins de santé – où, selon l’avis d’un des intervenants, il existe déjà beaucoup de gadgets, mais peu d’outils réellement utiles (à l’exception de la chirurgie intelligente, qui n’est pas à proprement parler de l’IA mais plutôt une technique de chirurgie robotisée) ;
  • la cartographie des itinéraires en fonction du trafic et des préférences des utilisateurs ;
  • la gestion des hôpitaux dans la crise du COVID ;
  • la prévision de scénarios de santé publique (cependant, sur l’efficacité des vaccins par exemple, il y a encore trop peu de données disponibles pour pouvoir utiliser l’IA, car la recherche n’a commencé qu’il y a quelques mois)
  • la justice prédictive (d’après des études réalisées aux États-Unis et sur les décisions de la CEDH, l’IA est déjà capable de prédire les décisions des tribunaux avec une précision de 70 à 80 %)
  • la détection des fake news…

L’IA peut, par exemple, aider les experts médicaux à analyser l’imagerie médicale, par exemple afin d’éviter de rater quelque chose sur une image – mais le résultat de l’analyse de l’IA devra toujours être validé par des études scientifiques, ce qui ne sera possible que lorsqu’il y aura un nombre suffisant de données, et lorsqu’on pourra garantir que les données sont complètes et non (intentionnellement ou accidentellement) corrompues. En ce qui concerne les aspects médico-légaux des données cliniques, ceci n’est pas encore le cas. La collecte de données médicales est un véritable défi, notamment en raison des aspects liés à la protection des données.

IA et justice

Dans tous les cas, l’IA doit être guidée, contrôlée : des règles devront être définies sur ce qui est autorisé ou non lors de l’utilisation de l’IA.

Concernant l’utilisation de l’IA devant les tribunaux, il y a un premier problème sur la recevabilité des preuves fournies par l’IA. Sur les autres aspects de la preuve électronique, tant qu’il n’y a pas de législation européenne, la législation nationale relative à la preuve électronique s’applique. Cela s’applique également aux experts lorsqu’ils ont l’intention d’utiliser des moyens d’investigation électroniques, même s’ils travaillent sur des affaires transnationales pour lesquelles il n’existe toujours pas de législation spécifique en dehors du règlement (CE) 1206/2001. Il y a de grands défis à relever avant que l’IA puisse être utilisée dans les preuves d’experts, car l’expert devra expliquer comment l’expertise a été menée et surtout comment les droits de la défense ont été respectés à chaque étape.

En définissant les aspects d’une justice plus efficace grâce à l’IA, plusieurs questions doivent être posées : Qu’est-ce qu’une « bonne décision » ? Quelle est la « qualité acceptable » d’une telle décision, et comment doit-elle être évaluée ? Qu’est-ce qu’un « délai raisonnable » pour la préparation et la délivrance d’une décision ou d’une expertise, et comment peut-on le quantifier ? Qu’entend-on par « coûts raisonnables » ? On ne peut répondre à ces questions qu’en (i) appliquant une règle juridique et (ii) en résolvant un conflit de valeurs.

Les critères d’évaluation de ces questions peuvent être :

  • la transparence du processus ;
  • le respect du principe du contradictoire / des principes du procès équitable ;
  • l’indication des raisons sur lesquelles l’avis est fondé et une réponse approfondie aux arguments des parties ;
  • un processus décisionnel impartial ;
  • l’écoute attentive des parties, car l’impression des parties d’avoir été entendues avec leurs arguments est une des clés du sentiment d’une justice légitime ;
  • la « catharsis » apportée par le processus, donnant le sentiment que justice a été rendue ;
  • la prise en compte des aspects non verbaux et des questions d’actualité.

Les nouvelles technologies telles que l’IA peuvent aider le juge sur certains de ces aspects, comme le suivi et l’analyse de la jurisprudence, qui peuvent être automatisés grâce à des algorithmes analysant des ensembles de données, mais pas sur la résolution d’un conflit de valeurs, et surtout pas sur les aspects « humains » susmentionnés du rendu de la justice : en matière de justice, l’IA ne peut être qu’un outil, et elle ne devrait être utilisée que si elle aide à prendre des décisions plus efficaces. En tant que telle, elle peut être utilisée, par exemple, pour calculer un montant d’amende précis ou des pensions alimentaires dans des cas standard, mais elle ne sera certainement pas utile pour examiner des questions comme la liberté d’expression. Dans tous les cas, l’AI ne peut être qu’un soutien pour l’expert ou le juge – elle ne pourra pas les remplacer. Et même si – comme cela pourrait être le cas à l’avenir – un jugement est rendu par IA, le recours à un juge humain, qui sera spécifiquement formé à cet effet, sera toujours possible.

En outre, afin de garder le contrôle sur les décisions prises par des robots, ces jugements seront publiés sous forme de données ouvertes (après avoir été anonymisés) et régulièrement contrôlés par des entités indépendantes. Ces organismes doivent garder à l’esprit tous les biais possibles de l’IA : quels facteurs et quelles données ont été introduits dans l’algorithme, comment ont-ils été évalués, y a-t-il des « angles morts » ou d’autres formes de biais, le raisonnement qui a conduit à la décision peut-il être retracé…

L’une des questions à traiter sera également la responsabilité du fournisseur du système d’IA – qui insérera probablement des clauses de limitation de responsabilité dans ses conditions générales…

Un autre aspect sera l’évolution du rôle des avocats et des juges vers un rôle d’analyste des risques juridiques et un « compliance officer » qui pourra donner des conseils sur la question de savoir si une décision prise par l’IA a été correctement rendue !

En tout état de cause, les droits fondamentaux existants doivent être respectés à chaque étape du processus, et l’on pourrait envisager de créer des droits supplémentaires lorsque des robots sont utilisés dans le domaine de la justice. En particulier, il devrait y avoir une « marge d’erreur », surtout en matière de justice prédictive : personne ne devrait être empêché d’engager un procès parce qu’un robot n’a calculé que 49% de chances de le gagner !

Alain Pilette a rappelé que pour les experts judiciaires, il sera important de disposer de bases de données permettant aux tribunaux de savoir si un expert est effectivement reconnu ou officiellement enregistré comme expert judiciaire ; la ou les bases de données devraient également contenir des informations pertinentes sur leurs spécialités et qualifications ainsi que sur leur localisation. Les experts devraient également pouvoir dématérialiser les échanges, au moins dans les procédures civiles et administratives, via une plateforme accessible également au juge, aux parties et à leurs avocats, et les experts devraient pouvoir soumettre leur avis sur cette plateforme.

Cependant, en travaillant avec l’IA, le travail sera différent d’une analyse « traditionnelle » : il y aura un algorithme travaillant avec un certain nombre de données, et de l’avis des intervenants de la conférence, il devrait toujours y avoir un contrôle humain des résultats aux différentes étapes de l’analyse.

Afin de traiter les questions éthiques, il devrait y avoir une base juridique pour le travail avec l’IA ; au stade actuel, beaucoup d’entités travaillent sans aucun cadre juridique, même dans le secteur médical ou militaire, ce qui ne devrait pas continuer. Il y a déjà eu des réflexions intéressantes au niveau européen : la CEPEJ a publié une Charte éthique sur l’utilisation de l’intelligence artificielle dans les systèmes judiciaires et leur environnement, qui constitue une première base pour un tel cadre.  Le CCBE a également publié des réflexions sur les aspects juridiques de l’IA, qui constitueront un support supplémentaire.

Mais au-delà de ces règles éthiques, le véritable défi sera de trouver des solutions techniques permettant d’assurer le respect de ces règles. Un des enjeux majeurs sera de s’assurer que les personnes humaines gardent le contrôle de l’utilisation de l’IA – alors qu’il est très difficile de savoir comment elle fonctionne, le manque de transparence étant l’un des aspects les plus difficiles lorsqu’on travaille avec l’IA (« effet de boîte noire »).

Enfin, les orateurs se sont accordés sur la conclusion que, comme tout développement scientifique, l’IA peut être utilisée pour le meilleur comme pour le pire, et que le contrôle humain sera la clé d’une utilisation raisonnable de l’IA.