Devrions-nous attendre avant d’intégrer des algorithmes au sein de nos tribunaux ?

Les algorithmes imprègnent nos vies aujourd’hui, des recommandations musicales aux notes de crédit, décisions de mise en liberté sous caution et de détermination de peine de prison. Ces algorithmes sont-ils suffisamment contrôlés et de façon transparente ? Non. Ce manque de surveillance n’est, dans aucun domaine, plus grave que dans le système de justice pénale. Sans les garanties appropriées, ces outils risquent d’écorner la loi voir de diminuer les droits individuels. À l’heure actuelle, aux Etats-Unis, les tribunaux et les services correctionnels utilisent des algorithmes pour déterminer le « risque » inhérent à un suspect. Cette évaluation allant de la probabilité qu’un individu commette un autre crime à la probabilité qu’il comparaisse bien à la date de sa comparution. Chaque outil permet d’améliorer la précision de la prise de décision humaine et permet une meilleure répartition des ressources finies.

En général les organismes gouvernementaux n’écrivent pas leurs propres algorithmes. Ils les achètent à des entreprises privées. Cela signifie souvent que l’algorithme est propriétaire, une sorte de « boîte noire » dont les propriétaires et, dans une mesure limitée, l’acheteur, peuvent voir comment le logiciel prend des décisions. Mais à l’heure actuelle, il n’existe pas de loi fédérale établissant des normes ou encadrant le contrôle de ces outils. Le monde juridique n’a jamais abordé la totalié des implications de l’évaluations algorithmique des risques. Les avocats et les juges s’attaquent donc maintenant au déficit de surveillance et d’impact de ces outils suite à leur prolifération.

En suspendre provisoirement l’utilisation via un moratoire permettrait aux tribunaux de créer des règles régissant la manière dont l’évaluation des risques par une intelligence artificielle (IA) devraient être utilisées au cours du procès. Cela donnerait aux décideurs la fenêtre pour créer des normes et un mécanisme de surveillance. Enfin, cela permettrait d’enseigner aux avocats comment gérer ces nouveaux outils au tribunal. Ces étapes pourraient renforcer la loi et protéger les droits individuels.

La suite ici

(Visited 59 times, 1 visits today)
Avatar photo

Fondateur paris-singularity.fr👁️‍🗨️Entrepreneur social trackant les deep techs

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *