Nick Diakopoulos, directeur du laboratoire de journalisme informatique de l’Université Northwestern, espère empêcher un monde où des algorithmes mystérieux, véritables boîtes noires, sont habilités à prendre des décisions toujours plus importantes, sans pouvoir les expliquer et sans que personne ne soit tenu responsable quand elles tournent mal. Il identifie 4 grands types d’histoires dignes d’intérêt.
Le premier type est celui où l’algorithme se comporte injustement, comme dans le cas du comté de Broward. La 2ème catégorie d’histoires algorithmiques d’intérêt public découle d’erreurs. Les algorithmes peuvent être mal conçus ; ils peuvent fonctionner à partir d’ensembles de données biaisées ; ou ils peuvent ne pas fonctionner dans des cas précis. Le 3e type d’histoire survient lorsque l’algorithme enfreint des normes sociales ou même des lois. L’algorithme de recherche prédictive de Google a été poursuivi pour diffamation par un Australien pour avoir suggéré que l’expression « est un ancien tueur à gages » comme une option d’auto-complétion après son nom. Enfin, les algorithmes ne sont peut-être pas entièrement à blâmer : les humains peuvent utiliser ou abuser des algorithmes d’une manière qui n’était pas prévue. Prenez le cas détaillé dans le merveilleux livre de Cathy O’Neil, Weapons of Math Destruction. Un enseignant de Washington a été renvoyé pour avoir un faible « score d’évaluation des enseignants ».
Alors, comment les journalistes peuvent-ils espérer trouver des articles dans cette nouvelle ère ? En obtenant du code brut pour un audit. Si le code est utilisé par le gouvernement, comme parmi les plus de 250 algorithmes suivis par le site Web Algorithm Tips, les demandes d’accès à l’information peuvent permettre aux journalistes d’accéder au code. AlgorithmWatch en Allemagne recueille des données auprès des clients pour voir comment ils sont affectés par la publicité et les algorithmes d’alimentation en nouvelles ; WhoTargetsMe est un plugin de navigateur qui collecte des informations sur la publicité politique et leur dit qui essaie d’influencer leur vote. En faisant appel à des données provenant d’un large éventail de personnes, son comportement sur le terrain peut être analysé. Les journalistes d’investigation, se faisant passer pour diverses personnes, peuvent tenter d’utiliser les algorithmes pour exposer leur comportement face à leurs vulnérabilités.
Les grandes entreprises technologiques tirent une grande partie de leur valeur marchande des algorithmes qu’elles ont conçus et des données qu’elles ont recueillies ; il est peu probable qu’elles les partagent avec des journalistes ou des organismes de réglementation indiscrets. Enfin, il peut être difficile de relier l’histoire à une personne responsable, surtout lorsque la structure organisationnelle est aussi opaque que les algorithmes eux-mêmes. À mesure que les algorithmes deviennent de plus en plus omniprésents et influents pour façonner des nations et des sociétés entières, il devient aussi important de les obliger à rendre des comptes que de tenir les politiciens responsables. Les institutions et les outils pour y parvenir doivent être mis en place dès maintenant, faute de quoi nous devrons tous en subir les conséquences.
La suite ici (Thomas Hornigold)