Technologie sans conscience n’est que ruine de l’Homme.
Pourquoi cet article est intéressant ? L. Bardon . – Les entreprises chinoises de covoiturage affirment que les prix varient en raison des fluctuations du trafic. Mais plusieurs études affirment que les applications proposent en réalité des prix différents en fonction de facteurs tels que l’historique des trajets et le téléphone utilisé par une personne. Depuis le 1er mars, dans le cadre de ce qui pourrait être l’effort le plus ambitieux au monde pour réglementer l’IA, la Chine a interdit ce type de discrimination algorithmique.
En se précipitant pour utiliser des systèmes automatiques de suppression des propos offensants, nous risquons de réduire au silence les voix des minorités. La modération de contenu en ligne est une tâche traumatisante et difficile, c’est pourquoi les entreprises technologiques sont désireuses de s’appuyer sur des systèmes d’IA plutôt que sur des êtres humains (ils sont aussi beaucoup moins chers). Des études montrent les risques énormes inhérents à cette approche.
Certaines dispositions du nouveau cadre réglementaire chinois visent à répondre aux plaintes concernant les services en ligne. En vertu de ces règles, par exemple, il sera non seulement interdit aux entreprises d’utiliser des caractéristiques personnelles pour proposer aux utilisateurs des prix différents pour un produit ; mais elles seront aussi tenues d’informer les utilisateurs, et de leur permettre de se déinscrire lorsque des algorithmes sont utilisés pour faire des recommandations. Les entreprises qui enfreignent ces règles s’exposent à des amendes, à l’interdiction d’inscrire de nouveaux utilisateurs, au retrait de leur licence d’exploitation ou à la fermeture de leur site web ou de leur application.
Le présent est la bêta version du futur.
Synthèse
Les systèmes d’IA sont de plus en plus utilisées pour prendre des décisions importantes concernant la vie des humains, avec peu ou pas de surveillance. Ce qui peut avoir des conséquences dévastatrices : arrestations injustifiées, mauvaises notes pour les étudiants, voire ruine financière. Les femmes, les groupes marginalisés et les personnes de couleur sont souvent les premières victimes de la propension de l’IA à faire des erreurs ou accentuer des biais sociétaux. L’Union Européenne pense avoir une solution : la mère de toutes les lois sur l’IA, appelée AI Act. Il s’agit de la première loi qui vise à limiter ces préjudices en réglementant l’ensemble du secteur. Si l’UE réussit, elle pourrait établir une nouvelle norme mondiale pour la surveillance de l’IA dans le monde entier.
La loi sur l’IA est extrêmement ambitieuse. Elle exigerait des contrôles supplémentaires pour les utilisations « à haut risque » de l’IA qui sont les plus susceptibles de nuire aux personnes. Il pourrait s’agir de systèmes utilisés pour noter des examens, recruter des employés ou aider les juges à prendre des décisions en matière de droit et de justice. La première version du projet de loi prévoit également d’interdire les utilisations de l’IA jugées « inacceptables », telles que la notation des personnes sur la base de leur fiabilité perçue. Le projet de loi limiterait également l’utilisation par les forces de l’ordre de la reconnaissance faciale dans les lieux publics. Un groupe d’acteurs puissants, dont des membres du Parlement européen et des pays comme l’Allemagne, souhaite une interdiction totale ou un moratoire sur l’utilisation de la reconnaissance faciale dans les lieux publics par les forces de l’ordre et les entreprises privées, arguant que cette technologie permet la surveillance de masse.
Si l’Union européenne y parvient, il s’agira de l’une des interdictions les plus fortes jamais imposées à cette technologie. Certains États et villes américains, tels que San Francisco et la Virginie, ont introduit des restrictions concernant l’utilisation de la reconnaissance faciale, mais l’interdiction de l’UE s’appliquerait à 27 pays et à une population de plus de 447 millions de personnes. Le projet de loi exige aussi que les personnes soient averties lorsqu’elles rencontrent des « deepfakes », des systèmes de reconnaissance biométrique ou des applications d’IA qui prétendent être capables de lire leurs émotions. Les législateurs débattent également de la question de savoir si la loi doit mettre en place un mécanisme permettant aux personnes de se plaindre et de demander réparation lorsqu’elles ont été lésées par un système d’IA.
Le RGPD, le règlement de l’UE sur la protection des données, est l’exportation technologique la plus célèbre d’une norme édictée par l’UE, et il a été copié partout, de la Californie à l’Inde. L’approche de l’IA adoptée par l’UE, qui cible les IA les plus risquées, est une approche sur laquelle la plupart des pays développés s’accordent. Si les Européens parviennent à créer une méthode cohérente pour réglementer cette technologie, ils pourraient servir de modèle aux autres pays qui souhaitent faire de même.
Mais certaines des exigences du projet de loi sont techniquement impossibles à respecter à l’heure actuelle. La première version du projet de loi exige que les ensembles de données soient exempts d’erreurs et que les humains soient capables de « comprendre pleinement » le fonctionnement des systèmes d’IA. Les ensembles de données utilisés pour former les systèmes d’IA sont vastes, et la vérification par un humain de l’absence totale d’erreurs nécessiterait des milliers d’heures de travail, si tant est que cette vérification soit possible. Et les réseaux neuronaux d’aujourd’hui sont si complexes que même leurs créateurs ne comprennent pas entièrement comment ils aboutissent à leurs conclusions. Les entreprises technologiques sont également très mal à l’aise face à l’obligation de donner aux auditeurs externes ou aux régulateurs l’accès à leur code source et à leurs algorithmes afin de faire respecter la loi. Un autre grand combat sera celui de savoir quels types d’IA seront classés comme « à haut risque ». La loi sur l’IA contient une liste qui va des tests de détection de mensonges aux systèmes utilisés pour allouer les aides sociales.
La suite ici (Melissa Heikkilä)