Technologie sans conscience n’est que ruine de l’Homme.
Pourquoi cet article est intéressant ? L. Bardon . – Les systèmes d’IA font de plus en plus partie de nos vies pour automatiser une partie des processus de prise de décision. Or ces systèmes sont pas ou peu surveillés de par l’ampleur de leur périmètre d’intervention. Ce qui peut avoir des conséquences dévastatrices : arrestations injustifiées, mauvaises notes pour les étudiants, voire ruine financière. Les femmes, les groupes marginalisés et les personnes de couleur sont souvent les premières victimes de la propension de l’IA à faire des erreurs ou accentuer des biais sociétaux.
En se précipitant pour utiliser des systèmes automatiques de suppression des propos offensants, nous risquons de réduire au silence les voix des minorités. La modération de contenu en ligne est une tâche traumatisante et difficile, c’est pourquoi les entreprises technologiques sont désireuses de s’appuyer sur des systèmes d’IA plutôt que sur des êtres humains (ils sont aussi beaucoup moins chers). Des études montrent les risques énormes inhérents à cette approche.
Les régulateurs gouvernementaux en Europe et aux États-Unis ont jeté leur dévolu sur Facebook, Google, Amazon et Apple, mais les réponses réglementaires seront insuffisantes si elles se fondent sur de vieilles théories, de vieilles compréhensions que les plateformes ont déjà dépassées. L’effort réglementaire européen se concentre à juste titre sur le rôle des entreprises technologiques dominantes en tant que “gardiens”. Il vise à limiter systématiquement leur capacité à façonner le marché à leur avantage. Ses remèdes, cependant, sont émoussés, et les processus d’évaluation des préjudices seront très probablement plus lents que les préjudices eux-mêmes. Les marchés sont des écosystèmes, et comme tous les écosystèmes, ils intègrent d’inombrables dépendances cachées. Parce que les entreprises plateformes n’ont pas réussi à s’autoréguler, elles se verront imposer des limites à leur potentiel de bien et de mal.
Le présent est la bêta version du futur.
Synthèse
Le pire cauchemar des géants de l’industrie technologique s’est réalisé le mois dernier lorsque le 5e circuit (cour d’appel fédérale, devant laquelle sont interjetés les appels en provenance des quatre cours de district du Texas) a confirmé une loi du Texas qui interdit aux plateformes de modérer le contenu sur la base d’un simple « point de vue ». L’entrée en vigueur de cette loi avait été bloquée deux fois auparavant, d’abord par un tribunal de district et plus récemment par la Cour suprême. Quelles sont les options de Big Tech ?
Les plateformes ne peuvent pas bloquer le Texas. La loi HB 20 interdit aux entreprises de médias sociaux qui opèrent au Texas et comptent plus de 50 millions d’utilisateurs actifs de censurer un discours en fonction du point de vue de l’orateur. Toutefois, il n’est pas certain qu’un État puisse réellement contraindre une entreprise à exercer ses activités dans un autre État sans passer par un tribunal.
Les règles de contenu des boutiques d’applications vont-elles devenir laxistes ? Le 5e circuit a rejeté l’argument des plaignants selon lequel ils seraient contraints d’accorder un espace aux nazis et aux terroristes en vertu de la loi, en accusant les plateformes d’avoir une « obsession pour les terroristes et les nazis ». Mais si les plateformes comme Facebook et Twitter autorisent tous ces discours au Texas afin de se conformer à la loi, risquent-elles de ne pas respecter les conditions des magasins d’applications ?
Existe-t-il un moyen de trouver un terrain d’entente ? Malgré toutes les restrictions que la loi impose aux plateformes vis-à-vis de la modération, elle donne aux utilisateurs des plateformes la possibilité de restreindre les propos comme ils l’entendent. Cela pourrait être l’occasion d’un compromis, dans lequel les plateformes donneraient aux utilisateurs du Texas une vue non filtrée mais leur offriraient des moyens faciles de se retirer de The Bad Place s’ils le souhaitent.
Comment les annonceurs vont-ils réagir ? Les plateformes technologiques ont déjà bien du mal à satisfaire les annonceurs. Comment les marques vont-elles réagir en sachant que leurs publicités pour des shampooings côtoient la violence et les discours haineux ?
Les plateformes doivent-elles attendre de voir ce que fait la Cour suprême ?
Peut-être que l’option la plus sûre consiste à ne rien changer, de continuer à modérer le contenu comme si la loi texane n’existait pas, de risquer les poursuites potentielles au Texas et d’espérer que la Cour suprême agisse assez vite pour les repousser. Cela semble être la position adoptée par les plaignants dans cette affaire.