Le projet Digital Rights, cofinancé par l’Union européenne, a été présenté par Béatrice Maccarini, cheffe de projet chez Agenfor International Foundation. Ce programme s’inscrit dans la transformation numérique de la justice pénale en plaçant les droits fondamentaux au cœur de l’innovation. Son objectif est clair : faire en sorte que la technologie soutienne la justice sans jamais remplacer le raisonnement juridique. Destiné aux magistrats, avocats et procureurs, il propose des outils pour utiliser les solutions numériques de manière responsable et conforme aux standards européens. Le projet s’appuie sur les principes des Directives 2013/48/UE et 2016/343/UE, garantissant le droit à un avocat et la présomption d’innocence, même face aux défis des preuves numériques, de la coopération transfrontalière et des décisions data-driven. Digital Rights se veut aussi une plateforme de dialogue entre États membres, favorisant le partage d’expérience et l’adaptation des évolutions technologiques aux exigences juridiques. Enfin, il soutient la création d’outils innovants comme la Virtual Judicial Academy, un espace où la technologie aide les professionnels à apprendre et à collaborer sans jamais réduire les droits procéduraux, pour une justice plus transparente, accessible et équitable.

Lors de son intervention, Serena Quattroccolo a abordé un enjeu fondamental : la protection du droit à la défense et de la présomption d’innocence à l’ère des preuves algorithmiques. Elle a rappelé que ces garanties, inscrites dans les Directives (UE) 2016/343 et 2013/48/UE, sont au cœur du modèle européen de procès équitable. L’utilisation de systèmes d’IA dans les procédures pénales ne doit jamais compromettre ces droits, notamment en matière de transparence et de contrôle humain. La professeure a souligné les risques liés à l’opacité des algorithmes et à la difficulté pour les avocats de contester des résultats générés par des systèmes automatisés. Elle a également évoqué les défis posés par la visioconférence imposée, qui peut limiter l’interaction directe entre le prévenu et le juge, pourtant essentielle pour garantir l’impartialité et l’équité du procès. Selon elle, la digitalisation ne doit pas se traduire par une réduction des droits procéduraux, mais par des outils qui renforcent l’accès à la justice et la qualité des garanties. Son message est clair : l’innovation doit rester au service de la personne, en respectant les principes de la CEDH et en assurant la possibilité de recours contre toute décision influencée par des technologies.

Retour sur la journée du 22 octobre 2025

La session consacrée aux responsabilités, risques et compétences dans la justice numérique a ouvert la deuxième journée de la conférence.

Antonio De Nicolo a rappelé que l’IA appliquée à la justice est classée « à haut risque » par l’AI Act, en raison des menaces qu’elle fait peser sur la démocratie et les droits fondamentaux. Il a insisté sur l’interdiction de la justice prédictive et sur le rôle irremplaçable du juge dans l’interprétation des faits. Giovanni Canzio, ancien président de la Cour de cassation italienne, a élargi le débat en soulignant que l’Europe défend une approche anthropocentrique fondée sur la transparence et la responsabilité humaine, contrairement aux modèles américain (dérégulation orientée marché) et chinois (contrôle social). Il a mis en garde contre le risque pour l’Europe de devenir simple consommatrice de technologies si elle se limite à produire des règles sans investir dans l’innovation et la formation.

Serena Quattroccolo a analysé les impacts des outils numériques sur le droit à la défense et la présomption d’innocence, notamment dans le cadre des visioconférences imposées.

Enfin, Sami Kodia a abordé les défis de la traduction juridique par IA, illustrant les dangers des erreurs linguistiques et la nécessité d’une validation humaine. Toutes les interventions ont convergé sur un point : l’innovation est incontournable, mais la justice doit rester humaine, transparente et conforme aux droits fondamentaux.


La réflexion s’est poursuivie avec la session « AI and criminal proceedings: regulatory framework and ethical questions », modérée par Vasiliki Artinopoulou, professeure en criminologie à l’Université Panteion d’Athènes et directrice de l’EPLO Institute on Crime & Criminal Justice, a mis en lumière les enjeux majeurs liés à l’usage de l’intelligence artificielle dans les procédures pénales.

Les intervenants ont rappelé que l’IA appliquée à la justice est classée « à haut risque » par le AI Act, en raison des menaces qu’elle fait peser sur la démocratie et les droits fondamentaux. Si ces technologies peuvent faciliter certaines tâches techniques comme la recherche documentaire, la transcription ou l’anonymisation, elles ne doivent jamais remplacer la décision humaine.

La justice prédictive est strictement interdite : une personne ne peut être jugée sur des comportements anticipés ou des profils statistiques, mais uniquement sur des faits vérifiables. Les débats ont également souligné les risques liés à l’opacité des algorithmes, à la difficulté d’expliquer leurs résultats en audience et à la protection du droit à un procès équitable.

La question des visioconférences imposées a été abordée, avec un rappel des garanties prévues par l’article 6 de la CEDH pour préserver la présence physique et l’interaction directe avec le juge. Un consensus s’est dégagé : l’innovation est incontournable, mais elle doit rester anthropocentrique, garantir la transparence, la traçabilité et la possibilité de recours, afin que la justice numérique demeure conforme aux principes fondamentaux.


Lors de son intervention intitulée « The right to defense and the presumption of innocence in the age of algorithmic evidence », Serena Quattroccolo, professeure de procédure pénale italienne et européenne et vice-doyenne pour les programmes internationaux à l’Université de Turin, a abordé un enjeu central : la protection du droit à la défense et de la présomption d’innocence face à l’utilisation croissante de l’intelligence artificielle dans les procédures pénales.

Elle a rappelé que ces garanties, inscrites dans les Directives (UE) 2016/343 et 2013/48/UE, sont au cœur du modèle européen de procès équitable. L’IA ne doit jamais compromettre ces droits, notamment en matière de transparence, de traçabilité et de contrôle humain.

La professeure a mis en garde contre l’opacité des algorithmes et la difficulté pour les avocats de contester des résultats générés par des systèmes automatisés, ce qui menace l’équilibre du contradictoire.

Elle a également souligné les risques liés à la visioconférence imposée, qui peut limiter l’interaction directe entre le prévenu et le juge, pourtant essentielle pour garantir l’impartialité et l’équité du procès.

Selon elle, la digitalisation ne doit pas réduire les droits procéduraux mais les renforcer, en offrant des outils qui améliorent l’accès à la justice et la qualité des garanties. Son message est clair : l’innovation doit rester au service de la personne, respecter les principes de la CEDH et assurer la possibilité de recours contre toute décision influencée par des technologies.


Technologies prédictives et biais algorithmiques : deux regards sur un même risque

Les technologies prédictives promettent efficacité, mais à quel prix ? » s’interroge Sarah Holland-Kunkel, chercheuse en droits humains. Elle alerte sur les biais algorithmiques capables de fausser les décisions judiciaires : « Ces systèmes apprennent des données historiques, souvent discriminatoires. Ils peuvent reproduire des inégalités et compromettre l’équité du procès. » Pour illustrer son propos, elle cite l’exemple du logiciel américain COMPASS, utilisé pour évaluer la probabilité de récidive, accusé de discriminer certaines catégories sociales. Selon elle, la logique algorithmique, influencée par des biais invisibles, peut transformer la justice en une mécanique opaque, difficile à contester.

Federico Cappelletti, avocat à Venise et co-président de l’Observatoire sur le droit européen, partage cette inquiétude mais ajoute une dimension juridique : « La justice prédictive est incompatible avec nos principes constitutionnels. Aucun algorithme ne peut remplacer la motivation humaine d’une décision. » Il rappelle que la loi italienne 132/2025 interdit toute délégation de la décision judiciaire à une machine et insiste sur la nécessité d’audits indépendants et de règles claires. « L’IA peut assister, mais jamais décider. La responsabilité doit rester humaine.

Les deux experts convergent sur un point : l’innovation est inévitable, mais elle doit être encadrée pour éviter que la recherche d’efficacité ne compromette les droits fondamentaux et l’équité du procès.


Mirko Jatsch, Sénateur pour la Justice et la Constitution de la Ville libre hanséatique de Brême, a présenté les enjeux et les avancées de la digitalisation dans le système judiciaire, en se concentrant sur le contexte allemand et les perspectives européennes. Il a expliqué que la transformation numérique vise à moderniser les processus judiciaires, améliorer l’efficacité et garantir un meilleur accès à la justice. En Allemagne, la stratégie nationale repose sur neuf principes directeurs, dont la dématérialisation des dossiers, la communication sécurisée, et l’interopérabilité des systèmes. L’un des défis majeurs concerne la gestion électronique des dossiers dans les établissements pénitentiaires, où les pratiques restent souvent hybrides (papier et numérique). Il a insisté sur la nécessité d’une coopération fédérale et européenne pour harmoniser les standards et éviter la fragmentation des solutions. La digitalisation inclut également la participation numérique des détenus, avec des outils pour accéder à leurs droits, déposer des demandes et suivre leurs procédures. Mirko Jatsch a souligné l’importance de la formation du personnel judiciaire et pénitentiaire pour développer les compétences numériques et accompagner ce changement. Il a présenté des projets innovants, comme l’utilisation de la réalité virtuelle pour la formation des agents et la préparation à des scénarios complexes, inspirés de pratiques déjà testées dans le secteur de la santé et de la sécurité. Enfin, il a rappelé que la digitalisation ne doit pas se limiter à la technologie : elle doit respecter les principes de sécurité, confidentialité et droits fondamentaux, tout en favorisant la transparence et la confiance dans le système judiciaire.


La discussion finale a réaffirmé un consensus fort : l’innovation est incontournable pour moderniser la justice, mais elle doit rester au service de l’humain. Les participants ont insisté sur une approche anthropocentrique, fondée sur la transparence, la traçabilité et le contrôle humain, conformément au AI Act.

La justice prédictive est strictement interdite : aucune décision ne peut être fondée sur des comportements anticipés ou des profils statistiques, mais uniquement sur des faits vérifiables. Les droits fondamentaux – droit à la défense et présomption d’innocence – doivent être garantis, en ligne avec les directives européennes 2016/343 et 2013/48/UE.

Les risques liés aux biais algorithmiques exigent des audits indépendants, des mécanismes de correction et une totale transparence. La digitalisation, qu’il s’agisse de visioconférences, de traduction assistée par IA ou de réalité virtuelle pour la formation, doit renforcer l’accès à la justice sans compromettre les garanties procédurales. La formation des professionnels est essentielle pour maîtriser ces outils et anticiper leurs impacts.

Enfin, la coopération européenne et la protection des données sont des priorités pour éviter la fragmentation et préserver la confiance des citoyens. Le message est clair : innover sans renoncer aux valeurs démocratiques.

Le consortium Européen

This project is funded by the European Union