Pour répondre aux préoccupations croissantes relatives au manque de transparence du fonctionnement interne de l’intelligence artificielle (IA), les ingénieurs en logiciel et les scientifiques responsables d’un grand nombre d’algorithmes impliqués dans nos activités quotidiennes en ligne ont de plus en plus utilisé des structures algorithmiques plus « socialement conscientes ». Par exemple, les data scientists utilisent maintenant une technique connue sous le nom de « confidentialité différentielle » pour ajouter du « bruit » aléatoire aux ensembles de données, préservant la structure globale tout en masquant les données individuelles. Cette technique aide à anonymiser les données et protège ainsi la vie privée des utilisateurs. D’autres techniques comprennent l’ajout de critères d’équité, de sorte que la production des modèles prédictifs (de la solvabilité aux décisions liées à l’assurance) minimise le biais autant qeu possible.
Pourquoi c’est important ? Alors que les algorithmes d’apprentissage machine portent une plus grande responsabilité sur les décisions socialement conséquentes (ex : notre capacité à contracter des prêts ou une décision légale d’accorder une caution), les problèmes de confidentialité, de partialité, de désinformation, de bulles de filtrage et de transparence sont nombreux. En conséquence, les ingénieurs en IA commencé à travailler sur la capacité des algorithmes à expliciter leurs décisions, en surmontant leur statut de « boîtes noires » mystérieuses. Entre-temps, les conditions d’équité susmentionnées constituent un début prometteur dans la quête d’algorithmes équitables, impartiaux et fondés sur des données probantes : des modèles prédictifs qui s’avèrent exacts sans perpétuer les » fale news », les inégalités raciales et une foule d’autres défis sociaux.
A court terme, le principe de confidentialité différentielle, les conditions d’équité et d’autres modifications semblables dégradent l' » utilité » algorithmique et le taux d’erreur. Cependant, de telles initiatives sont essentielles pour un avenir où l’apprentissage machine aidera à préserver l’équité, la prise de décision systémique et la vie privée, tout en protégeant contre certaines des pires tendances institutionnelles actuelles.
La suite ici (Michael Kearns, Aaron Roth)