Le côté obscur du financement de la recherche en IA par les grandes entreprises technologiques

deep tech innovation
deep tech innovation
Image par Thanks for your Like

L. Bardon . – Début 2019, Google a déclaré qu’il avait commencé à limiter l’accès d’une partie du code publié par ses chercheurs en IA pour éviter qu’il ne soit utilisé de façon inappropriée. La prudence persistante à l’égard de l’IA contraste avec la façon dont Google a continué de s’étendre dans de nouveaux secteurs d’activité, comme les soins de santé et les services bancaires, alors même que les organismes de réglementation et les législateurs parlent de mesures antitrust contre les entreprises technologiques. Entre-temps, le besoin d’une plus grande responsabilité éthique n’a fait que s’accentuer. Les mêmes progrès réalisés dans les GANs en 2018 ont conduit à la prolifération de deepfakes hyperréalistes, qui sont maintenant utilisés pour cibler les femmes et éroder la croyance des gens dans la documentation et les preuves. Pour prévenir de tels abus, les entreprises qui travaillent sur des directives éthiques pour les systèmes et outils alimentés par l’IA doivent faire participer les utilisateurs du monde entier à la création de normes appropriées pour régir ces systèmes. Elles doivent également être conscientes de la manière dont leurs politiques s’appliquent dans différents contextes. Malgré les risques, il existe un manque évident de diversité régionale dans de nombreux conseils consultatifs, groupes d’experts et conseils d’IA nommés par les principales organisations internationales.

La semaine dernière, Timnit Gebru, éminent chercheuse en IA chez Google, a déclaré avoir été licenciée par l’entreprise après que les dirigeants lui aient demandé de se rétracter ou de retirer son nom d’un document de recherche, et qu’elle s’y soit opposée. L’IA est à la base de produits lucratifs comme le moteur de recherche de Google et l’assistante virtuelle d’Amazon, Alexa. Les grandes entreprises produisent des documents de recherche influents, financent des conférences universitaires, se font concurrence pour engager des chercheurs de haut niveau et possèdent les centres de données nécessaires aux expériences d’IA à grande échelle. Une étude récente a révélé que la majorité des professeurs titulaires de quatre grandes universités qui révèlent leurs sources de financement avaient reçu le soutien de Big Tech.

L’apprentissage machine était une dimension obscure du monde universitaire jusqu’à ce que, vers 2012, Google et d’autres entreprises technologiques s’intéressent de très près aux percées qui permettent aux ordinateurs de mieux reconnaître la parole et les images. La société de recherche et d’annonces, rapidement suivie par des rivaux tels que Facebook, a engagé et acquis des universitaires de premier plan, et les a incités à continuer à publier des articles entre deux travaux sur les systèmes de l’entreprise. Même Apple, qui avait l’habitude de garder les lèvres serrées, s’est engagé à faire preuve d’une plus grande ouverture dans ses recherches, afin d’attirer les talents de l’IA. La technologie.

Le document qui a conduit à la sortie imprévue de Gebru demandait aux développeurs d’IA d’être plus prudents lors de la construction de puissants systèmes d’IA pour traiter le langage, qui ont produit des résultats impressionnants mais ont également montré une tendance à répéter les stéréotypes appris en ligne. Elle était co-chef d’une équipe éminente de Google qui se consacre à l’exploration des implications éthiques de la recherche en IA. La société avait fait la promotion de leur travail comme preuve qu’elle était plus attentive à l’IA que ses rivales. MAis selon Whittaker de AI Now, sonder correctement les effets de l’IA sur la société est fondamentalement incompatible avec les laboratoires des entreprises.

La suite ici (Tom Simonite)

(Visited 145 times, 1 visits today)
Avatar photo

Fondateur paris-singularity.fr👁️‍🗨️Entrepreneur social trackant les deep techs

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *