La justice algorithmique prévaut en France

Première modification :

Le Conseil d’État vient de valider le système informatique d’aide à la décision DataJust, qui permet aux tribunaux d’établir les indemnités auxquelles ont droit les victimes de dommages corporels. Les associations de défense des libertés fondamentales dénoncent l’utilisation de données personnelles sans le consentement préalable des justiciables.

Par Dominique Desaunay

Le programme DataJust a pour objectif d’aider les juges à évaluer, par exemple, le montant des indemnités auxquelles ont droit les victimes d’agressions physiques ou d’accidents de la circulation. La mise en œuvre de cette expérimentation, annoncée par décret le 27 mars 2020, « vise à développer un algorithme, chargé d’extraire et d’exploiter automatiquement les données contenues dans les décisions de justice relatives à l’indemnisation du préjudice corporel », comme l’indique le ministère de Justice sur son site Internet.

Pour « former » ce système, basé sur des programmes d’intelligence artificielle, utilise un fichier contenant des milliers de données sensibles. Cela comprend les noms des victimes, ainsi que des informations liées à d’éventuelles blessures, à l’expérience médicale, mais aussi à leur situation professionnelle ou financière. Bien que la plupart de ces informations aient été rendues anonymes, certaines données d’identification, telles que la date de naissance ou d’éventuels liens familiaux entre les victimes et leurs proches, sont clairement visibles dans la base de données.

Les associations de défense des libertés fondamentales manifestent

Selon plusieurs avocats, ce mode de traitement informatique contrevient au RGPD, au système européen de protection des données personnelles et à la loi Informatique et Libertés. Les associations ont fait le même constat. « Avec cette expérience de justice algorithmique, l’État se détache des lois qui protègent les données personnelles et la vie privée », explique Bastien Le Querrec, avocat et membre du groupe contentieux de la Quadrature du Net, association qui défend les libertés fondamentales dans les environnements numériques. .

« Cette méthodologie, qui consiste à appliquer un label expérimental pour autoriser l’extraction d’encore plus d’informations personnelles, nous dérange. A chaque fois, on dit que c’est expérimental, ne vous inquiétez pas, on vérifiera si le résultat proposé par l’algorithme est proportionnelle, alors qu’en réalité On joue à l’apprenti sorcier. Cette croyance qu’un algorithme peut prendre de meilleures décisions qu’un être humain se généralise, on la voit dans le secteur policier, maintenant dans le secteur de la justice, dans le contrôle social dans les systèmes de la Caisse .d’allocations familiales … on voit que ces algorithmes s’immiscent de plus en plus dans le quotidien des citoyens et c’est vraiment un choix de société. A la Quadrature du Net, on essaie de lutter contre les biais qu’ils génèrent ces programmes automatiques, car la technologie peut parfois conduire à des abus, comme c’est le cas aujourd’hui avec le système DataJust », déplore Bastien Le Querrec.

L’algorithme DataJust validé par la plus haute juridiction

Le Conseil d’État, auquel se réfère la Quadrature du Net, affirme dans ses conclusions que, s’agissant d’un projet d’intérêt public, le consentement des personnes inscrites au fichier n’est pas nécessaire pour le traitement de leurs données personnelles. Le système DataJust, dont l’efficacité n’a pas encore été révélée, devrait être opérationnel d’ici fin mars 2022, selon le ministère de la Justice.

Nihel Béranger

« Accro au café. Fanatique de l'alcool depuis toujours. Expert du voyage typique. Enclin à des accès d'apathie. Pionnier de l'Internet.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *