L. Bardon . – Pour répondre aux préoccupations croissantes relatives au manque de transparence du fonctionnement interne de l’intelligence artificielle (IA), les ingénieurs en logiciel et les scientifiques responsables d’un grand nombre d’algorithmes impliqués dans nos activités quotidiennes en ligne ont de plus en plus utilisé des structures algorithmiques plus “socialement conscientes”. Par exemple, les data scientists utilisent maintenant une technique connue sous le nom de “confidentialité différentielle” pour ajouter du “bruit” aléatoire aux ensembles de données, préservant la structure globale tout en masquant les données individuelles. Cette technique aide à anonymiser les données et protège ainsi la vie privée des utilisateurs. D’autres techniques comprennent l’ajout de critères d’équité, de sorte que la production des modèles prédictifs (de la solvabilité aux décisions liées à l’assurance) minimise le biais autant que possible.
Un groupe de plus de 1 000 professionnels de la technologie (dont des experts de l’intelligence artificielle, de l’apprentissage machine, des chercheurs en droit et en anthropologie) ont récemment signé des lettres publiques en réaction à des documents en passe d’être dévoilés, détaillant le développement d’un programme de reconnaissance des visages qui prétend pouvoir prédire si une personne deviendra un(e) criminel(le).
De nombreux signataires de la lettre conviennent que le crime ne peut être prédit sans préjugés, bien que le rapport revendique « une précision de 80 % et sans préjugés raciaux », et compare la méthode à la « science raciale » qui a longtemps été contestée.
Les plus de 1 000 personnes signataires, qui s’appellent collectivement la Coalition for Critical Technology, affirment que la recherche de l’université de Harrisburg « se fonde sur des lieux, des recherches et des méthodes scientifiques malsains qui […] sont indiscutables depuis des années ». « Ils ajoutent qu’en raison des préjugés raciaux au sein de la police américaine, tout nouvel algorithme destiné à prédire la criminalité engendre inévitablement de tels préjugés systémiques.
Ce n’est pas la première fois qu’un programme de reconnaissance faciale contre la criminalité suscite l’inquiétude. En juin, Amazon a interdit à la police d’utiliser un logiciel de reconnaissance faciale, Recognition, pendant un an dans le cadre des efforts du Congrès pour réglementer la technologie. Les recherches montrent que Recognition fait des erreurs d’identification envers les Afro-Américains et les Asiatiques plus souvent que les blancs.