Des systèmes d’IA amplifient-ils le racisme ?

éthique deep tech
Image par succo de Pixabay

L. Bardon . – Une étude réalisée par le FBI a révélé que les taux d’erreurs d’identification de systèmes d’IA étaient plus élevés de 5 à 10% chez les personnes de couleur que chez les blancs (cf. reportage d’Arte “Tous surveillés – 7 milliards de suspects). Google fait face à des critiques : une entreprise avec laquelle le géant d’Internet a passé un contrat aurait secrètement enregistré les visages de sans-abri à la peau plus foncée (contre des cartes-cadeaux de 5 dollars) pour améliorer son logiciel de reconnaissance faciale. IBM annonce ne plus travailler sur la reconnaissance faciale car sa technologie est utilisée pour faire du profiling racial. Quant à Amazon et Microsoft, ils vont “forcer” une discussion législative autour de ces technologies. La mauvaise nouvelle c’est qu’il existe d’autres acteurs importants de ce type de technologies de surveillance, dont Clearview AI que nous évoquions il y a quelques mois. Les systèmes d’IA sont entraînés à partir de données intégrant les biais de nos sociétés. S’ils automatisent et facilitent l’exécution de certaines tâches bénéfiques à l’humanité, ils peuvent aussi amplifier les biais racistes. Je vous recommande de lire cet excellent article de Flint par Benoît Raphaël : https://news.flint.media/2020/06/07/peut-on-calculer-le-racisme-flint-dimanche-35/

Nous faisons souvent appel à la technologie pour aider à résoudre les problèmes. Mais nous avons conçu des technologies de reconnaissance faciale qui ciblent les suspects criminels en fonction de la couleur de leur peau. Nous avons entraîné des systèmes automatisés de profilage des risques qui identifient de manière disproportionnée les Latinos comme des immigrants illégaux. Nous avons mis au point des algorithmes de notation du crédit qui identifient de manière disproportionnée les Noirs comme des personnes plus à risque.

La question à laquelle nous devons faire face est donc de savoir si nous allons continuer à concevoir et à déployer des outils qui “automatisent” le racisme.
Il ne s’agit pas du tout d’une question nouvelle.

Les tensions raciales se sont intensifiées aux Etats-Unis tout au long des années 1960. Puis vint le long et chaud été 1967. Des villes de tout le pays ont brûlé, de Birmingham, en Alabama, à Rochester, New York, à Minneapolis, dans le Minnesota, et bien d’autres encore. Les Noirs américains ont protesté contre l’oppression et la discrimination dont ils étaient victimes aux mains du système de justice pénale américain. Mais le président Johnson a parlé de “désordre civil” et a créé la Commission Kerner pour comprendre les causes des “émeutes du ghetto”. La commission a fait appel à la Simulmatics.

Dans le cadre d’un projet de la DARPA visant à renverser le cours de la guerre du Vietnam, la société de avait travaillé d’arrache-pied à la préparation d’une campagne massive de propagande contre le Vietcong. Le président Johnson était désireux de déployer la technologie d’influence comportementale de Simulmatics pour réprimer la menace intérieure de la nation, et pas seulement ses ennemis étrangers.

Sous le couvert de ce qu’ils appelaient une “étude médiatique”, Simulmatics a constitué une équipe pour ce qui équivalait à une campagne de surveillance à grande échelle dans les “zones touchées par les émeutes” qui a attiré l’attention de la nation pendant l’été 1967. Ils ont recueilli des données sur l’utilisation des péages, les ventes des stations d’essence et les itinéraires des bus. Ils avaient pour objectif d’utiliser les informations recueillies par Simulmatics pour tracer le flux d’informations pendant les manifestations afin d’identifier les personnes influentes. Mais à la fin des années 1960, ce type d’informations a contribué à la création de ce que l’on a appelé les “systèmes d’information de la justice pénale”. Ils ont proliféré au fil des décennies, jetant les bases du profilage racial, de la police prédictive et de la surveillance ciblée sur les groupes raciaux.

La suite ici (Charlton McIlwain)

(Visited 59 times, 1 visits today)
Avatar photo

Fondateur paris-singularity.fr👁️‍🗨️Entrepreneur social trackant les deep techs

%d blogueurs aiment cette page :