Skip to main content

Les progrès à petits pas de la «justice prédictive» en France

The slow progress of “predictive justice” in France

Résumé

L’expression de «justice prédictive» paraît renvoyer généralement au recours de plus en plus répandu aux algorithmes prédictifs par ou à propos de la justice. Ces algorithmes peuvent être amenés à analyser des données de nature différente en vue d’assister les juges et les justiciables. D’une part, les algorithmes peuvent traiter de données comportementales afin d’apprécier le comportement des personnes, par exemple le risque de récidive d’un prévenu donné. D’autre part, les algorithmes prédictifs peuvent analyser les données juridiques, à commencer par les décisions des tribunaux, afin de produire des modèles de décisions et d’anticiper les décisions de justice. A cet égard, et même si les possibilités restent à ce jour encore limitées, ces algorithmes peuvent constituer des outils d’aide à la décision de qualité pour les justiciables, les professionnels du droit et les juges.

Abstract

The term “predictive justice” appears to refer generally to the increasing use of predictive algorithms by or about justice. These algorithms may involve the analysis of different types of data to assist judges and litigants. On the one hand, algorithms may process behavioural data in order to assess the behaviour of individuals, for example the risk of recidivism of a given defendant. On the other hand, predictive algorithms can analyse legal data, starting with court decisions, in order to produce decision models and anticipate court decisions. In this respect, and even if the possibilities are still limited to date, these algorithms can help in providing decisions of quality for litigants, legal professionals and judges.

This is a preview of subscription content, access via your institution.

Notes

  1. 1.

    S. Lebreton-Derrien, «La justice prédictive. Introduction à une justice “simplement” virtuelle», Archives Phil. dr. 2018, t. 60, La justice prédictive, p. 14 ; Y. Méneceur, «Intelligence artificielle. Quel avenir pour la “justice prédictive” ? Enjeux et limites des algorithmes d’anticipation des décisions de justice», JCP 2018. Doctr. 190 ; F. Rouvière, «La justice prédictive : version moderne de la boule de cristal», RTD civ. 2017. 527 ; A. Garapon, «Justice. Les enjeux de la justice prédictive», JCP 2017. Doctr. 31.

  2. 2.

    Les villes de Chicago et de Los Angeles, peu convaincues par l’efficacité de Predpol, ont toutefois récemment annoncé avoir renoncé à utiliser cet algorithme. C. Gosselin, La police prédictive, enjeux soulevés par l’usage des algorithmes prédictifs en matière de sécurité publique, IAU Île-de-France, avr. 2019 ; B. Benbuzid, «Quand prédire, c’est gérer. La police prédictive aux États-Unis», Réseaux 2018, vol. 211, n° 5, p. 221-256 ; A. Guthrie Ferguson, The Rise of Big Data Policing : Surveillance, Race, and the Future of Law Enforcement, NYU Press, 2017.

  3. 3.

    V. de manière générale : S. Abiteboul et F. G’sell, «Les algorithmes pourraient-ils remplacer les juges», in F. G’sell (dir.), Le Big Data et le Droit, Dalloz, 2020, p. 21 et s. ; F. G’sell, «Les décisions algorithmiques», in Le Big Data et le Droit, op. cit. p. 87 et s.

  4. 4.

    PSA est employé depuis 2017 dans le New Jersey en lieu et place des audiences de libération sous caution, et travaille à partir d’une base de données de 1,5 million d’affaires jugées aux États-Unis. Neuf facteurs sont pris en considération (âge, casier judiciaire, fondements des poursuites, etc.) pour élaborer un «score», qui va de 1 à 6 : https://www.psapretrial.org.

  5. 5.

    COMPAS évalue le risque d’infraction en fonction de 6 facteurs principaux et à partir de 137 variables, v. T. Brennan et W. Dieterich, «Correctional Offender Management Profiles for Alternative Sanctions (COMPAS)», in Handbook of Recidivism Risk/Needs Assessment Tools, First éd., 2017, p. 49-75.

  6. 6.

    J. Kleinberg, H. Lakkaraju, J. Leskovec, J. Ludwig, S. Mullainathan, «Human decisions and machine predictions», NBER Working Paper févr. 2017, n° 23180.

  7. 7.

    J. Dressel et H. Farid, «The Accuracy, Fairness and Limits of Predicting Recidivism», Science Advances 17 janv. 2018, vol. 4, n° 1.

  8. 8.

    J. Angwin, J. Larson, S. Mattu, L. Kirchner, «Machine Bias», Pro Publica, 23 mai 2016. V. égal. C. O’Neil, Weapons of Math Destruction : How Big Data Increases Inequality and Threatens Democracy, Crown, 2016. V. EUBANKS, Automating Inequality, How High-Tech Tools Profile, Police, and Punish the Poor, St Martin’s Press, 2018.

  9. 9.

    State of Wisconsin c/ Loomis, 881 N.W.2d 749 (Wis. 2016). V. F. G’sell, «Les décisions algorithmiques», art. préc. ; «Automatiser les décisions de justice, jusqu’où ?», Annales des Mines-Enjeux numériques sept. 2018, vol. 3.

  10. 10.

    Doivent être mentionnés : le caractère confidentiel de l’algorithme, le fait qu’il utilise des données relatives à des groupes d’individus, le fait que les données sont collectées et traitées à l’échelle nationale (et non à l’échelle de l’État), l’éventuel effet discriminatoire pour les minorités, le fait que COMPAS a initialement été développé pour assister l’administration dans l’application des peines (et non leur détermination).

  11. 11.

    Art. 47, al. 1er de la loi n° 78-17 du 6 janv. 1978 relative à l’informatique, aux fichiers et aux libertés.

  12. 12.

    D. Bourcier, La Décision artificielle : Le Droit, la machine et l’humain, Paris, PUF, coll. «Les voies du droit», 1995 ; «L’acte de juger est-il modélisable ?», Archives Phil. dr. 2011, t. 54, De la logique à la justice, p. 37 s.

  13. 13.

    E. Barthe, «Les outils de l’intelligence artificielle pour le droit français», art. cit.

  14. 14.

    L. Godefroy, «Encadrement juridique des Modes Algorithmiques d’Analyse des Décisions (MAAD)», in L. Godefroy, F. Lebaron, J. Lévy-Véhel, Comment le numérique transforme le droit et la justice vers de nouveaux usages et un bouleversement de la prise de décision, Anticiper les évolutions pour les accompagner et les maîtriser, Mission de recherche Droit et Justice, Rapport n° 16-42, juill. 2019, p. 53.

  15. 15.

    S. Abiteboul et F. G’sell, art. préc. ; Y. Tanguy, «Le droit à l’épreuve de l’informatique juridique», Politiques et management public 1993, vol. 11, n° 4, p. 135-146. V. égal. C. Mouly, «Signification épistémologique de l’échec des systèmes experts juridiques», LPA 1989, n° 91, p. 4.

  16. 16.

    V. F. Rouvière, «Le raisonnement par algorithme : le fantasme du juge-robot», RTD civ. 2018. 530 s. V. égal. D. Bourcier, «L’acte de juger est-il modélisable ?», art. cit., spéc. p. 39-40.

  17. 17.

    F. G’sell, «Automatiser les décisions de justice, jusqu’où ?», art. préc. V. égal. L. Godefroy, F. Lebaron, J. Lévy-Véhel, Comment le numérique transforme le droit et la justice vers de nouveaux usages et un bouleversement de la prise de décision, Mission de recherche Droit et Justice, 2019.

  18. 18.

    Medvedeva, M., Vols, M. & Wieling, M. Using machine learning to predict decisions of the European Court of Human Rights. Artif Intell Law (2019). https://doi.org/10.1007/s10506-019-09255-y.

  19. 19.

    S. Abiteboul et F. G’sell, art. préc.

  20. 20.

    D. M. Katz, M. J. Bommarito II et J. Blackman, «Predicting the Behavior of the Supreme Court of the United States : A General Approach», 2017.

  21. 21.

    Octavia-Maria Sulea, Marcos Zampieri, Mihaela Vela, Josef van Genabith, “Predicting the Law Area and Decisions of French Supreme Court Cases”, 2017, https://arxiv.org/pdf/1708.01681.pdf.

  22. 22.

    N. Aletras, D. Tsarapatsanis, D. Preomiuc-Pietro et V. Lampos, «Predicting judicial decisions of the European Court of Human Rights : a Natural Language Processing perspective», Peer J Computer Science 2016.

  23. 23.

    Y. Meneceur et C. Barbaro, «Intelligence artificielle et mémoire de la justice : le grand malentendu», Les Cahiers de la justice, 2019/2, p. 277

  24. 24.

    Medvedeva, M., Vols, M. & Wieling, M. Using machine learning to predict decisions of the European Court of Human Rights. Artif Intell Law (2019). https://doi.org/10.1007/s10506-019-09255-y.

  25. 25.

    C. Haskins, «New App Lets You “Sue Anyone by Pressing a Button”», Vice, 10 oct. 2018 https://www.vice.com/en_us/article/bj43y8/donotpay-app-lets-you-sue-anyone-by-pressing-a-button.

  26. 26.

    Ce que montre précisément un récent rapport : v. L. Godefroy, F. Lebaron, J. Lévy-Véhel, Comment le numérique transforme le droit et la justice…, op. cit., spéc. p. 7-8.

  27. 27.

    Th. Kirat et M. Sweeney, «Une comparaison d’application de «justice prédictive», le cas du contentieux de l’indemnisation du licenciement abusif», JCP G 2019, suppl. au n° 44-45.

  28. 28.

    Pour une présentation exhaustive des différents acteurs de ce domaine, v. L. Godefroy, F. Lebaron, J. Lévy-Véhel, Comment le numérique transforme le droit et la justice…, op. cit., p. 8 s.

  29. 29.

    J. Dupré, «Du droit saisi par l’IA au droit saisissant l’IA, éléments de réflexion», Archives Phil. dr. 2018, t. 60, p. 103.

  30. 30.

    Art. L. 111-13, al. 3 COJ.

  31. 31.

    F. G’sell, «Predicting court’s decisions is lawful in France and will remain so”, Actualités du droit, 2 juillet 2019 ; S. Abiteboul et F. G’sell, art. préc.

  32. 32.

    F. G’sell, «L’automatisation des décisions de justice, jusqu’où ?», art. préc.

  33. 33.

    C’est le laboratoire de cyberjustice de l’Université de Montréal et l’Institut des algorithmes d’apprentissage de Montréal qui sont chargés de développer ce justice bot. V. https://www.cyberjustice.ca/projets/justicebot/.

  34. 34.

    A. Garapon, «Les enjeux de la justice prédictive», JCP 2017. Doctr. 31.

  35. 35.

    B. Alarie, A. Yoon et A. Niblett, «Regulation by Machine», 2016..

  36. 36.

    E. Niiler, «Can AI be a fair judge in court ? Estonia thinks so», Wired, 25 mars 2019 ; L.-M. Gaveriaux, «Les robots débarquent au tribunal», Les Échos, n° 174, 19 juin 2019.

  37. 37.

    P. Deumier, «La justice prédictive et les sources du droit : la jurisprudence du fond», Archives Phil. dr. 2018, t. 60, La justice prédictive, p. 49.

  38. 38.

    A. Chen, «How artificial intelligence can help us make judges less biased», The Verge, 17 janv. 2019. Les algorithmes pourraient en effet permettre de mettre davantage en évidence les problèmes de discrimination : v. J. Kleinberg, J. Ludwig, S. Mullainathan, C. R. Sunstein, «Discrimination in the Age of Algorithms», Journal of Legal Analysis 2018, vol. 10, https://doi.org/10.1093/jla/laz001.

  39. 39.

    D. L. Chen, M. Dunn, L. Sagun, H. Sirin, «Early predictability of asylum court decisions», TSE Working Paper 2017, n° 17-781.

  40. 40.

    A. Chen, «How artificial intelligence can help us make judges less biased», préc.

  41. 41.

    V. la présentation du projet sur le site d’Etalab : https://entrepreneur-interet-general.etalab.gouv.fr/defis/2019/datajust.html.

  42. 42.

    Ibid.

  43. 43.

    F. G’sell, “Les décisions algorithmiques”, art. préc.

  44. 44.

    N. Bostrom et E. Yudkowsky, «The ethics of artificial intelligence», in The Cambridge Handbook of Artificial Intelligence, Cambridge Univ. Press, 2014, p. 316-334.

Author information

Affiliations

Authors

Corresponding author

Correspondence to Florence G’sell.

Additional information

Publisher’s Note

Springer Nature remains neutral with regard to jurisdictional claims in published maps and institutional affiliations.

Rights and permissions

Reprints and Permissions

About this article

Verify currency and authenticity via CrossMark

Cite this article

G’sell, F. Les progrès à petits pas de la «justice prédictive» en France. ERA Forum 21, 299–310 (2020). https://doi.org/10.1007/s12027-020-00618-6

Download citation

Mots clés

  • Justice prédictive
  • Justice quantitative
  • Intelligence artificielle
  • Algorithme
  • Prédiction
  • Datajust
  • Barème
  • Récidive

Keywords

  • Predictive justice
  • Quantitative justice
  • Artificial intelligence
  • Algorithm
  • Prediction
  • Datajust
  • Scale
  • Recidivism