En janvier dernier, IBM a publié un ensemble de données de près d’un million de photos qui avaient été « aspirées » depuis le site de partage de photos Flickr, puis catégorisées avec des informations sur des détails comme le teint de la peau. L’entreprise a lancé cette initiative dans le cadre de ses efforts visant à réduire le problème (très réel) des préjugés inhérent à la reconnaissance faciale. Cependant, IBM n’a pas obtenu le consentement de qui que ce soit pour faire cela, et il est presque impossible de faire enlever les photos. IBM est loin d’être seul.
Au fil des efforts consentis par les entreprises pour améliorer leur technologie de reconnaissance faciale, elles ont besoin d’accéder à un grand nombre d’images pour alimenter leurs algorithmes. Le simple fait de prendre des images qui ont déjà été téléchargées sur Internet est une façon très rapide, mais douteuse sur le plan éthique de le faire. Les algorithmes de reconnaissance faciale ont une piètre précision lorsqu’il s’agit d’identifier des visages non blancs, et les systèmes actuels peuvent être « méfiants » à l’égard des personnes en fonction, par exemple, de la longueur de leurs cheveux. Pour lutter contre cela, il faudrait ajouter plus d’images de femmes noires, par exemple, ou d’hommes aux cheveux longs, aux entrepôts de données utilisées pour entrainer les algorithmes