Des chercheurs en IA veulent l’étudier de la même façon qu’ils étudient les humains en sciences sociales

Image parGerd Altmann de Pixabay

Beaucoup de choses ont été écrites sur la nature « boîte noire » des systèmes d’intelligence artificielle (IA), et à quel point cela nous met mal à l’aise que nous ne puissions souvent pas comprendre pourquoi ils obtiennent ces résultats. Au fur et à mesure que les algorithmes en sont venus à jouer un rôle de médiateur entre nos interactions sociales, culturelles, économiques et politiques, les informaticiens ont tenté de répondre à la demande croissante d’explicabilité en développant des techniques.

Mais un groupe de chercheurs du milieu universitaire et de l’industrie soutient maintenant que nous n’avons pas besoin de pénétrer dans ces boîtes noires pour comprendre, et donc contrôler, leurs effets sur nos vies. Après tout, ce ne sont pas les premières boîtes noires impénétrables que nous rencontrons.

Les auteurs de l’article, un groupe diversifié de chercheurs de l’industrie et du monde académique, proposent de créer une nouvelle discipline académique appelée « comportement machine ». Il aborde l’étude des systèmes d’IA de la même façon que nous avons toujours étudié les animaux et les humains : par l’observation empirique et l’expérimentation. De cette façon, un comportementaliste machine est à l’informaticien ce que le sociologue est au neuroscientifique. Le premier cherche à comprendre comment un agent (artificiel ou biologique) se comporte dans son habitat, lorsqu’il coexiste en groupes et lorsqu’il interagit avec d’autres agents intelligents. L’autre cherche à disséquer les mécanismes de prise de décision qui sous-tendent ces comportements.

Cela ne veut pas dire que les systèmes d’IA ont développé une sorte de libre arbitre (ils ne l’ont certainement pas fait ; ce ne sont que des modèles mathématiques). Mais il s’agit d’éviter de considérer les systèmes d’IA comme des outils passifs qui peuvent être évalués uniquement par leur architecture technique, leurs performances et leurs capacités. Ils doivent plutôt être considérés comme des acteurs actifs qui changent et influencent leur environnement et les personnes et les machines qui les entourent.

Alors, à quoi ça ressemblerait concrètement ? Un comportementaliste machine peut interroger, par exemple, l’impact des assistants vocaux sur le développement de la personnalité d’un enfant. Ou il pourrait examiner comment les algorithmes de rencontres en ligne ont changé la façon dont les gens se rencontrent et tombent amoureux. En fin de compte, il étudierait les propriétés émergentes qui découlent de la coexistence et de la collaboration de nombreux humains et machines.

Il est important de noter que la plupart de ces idées ne sont pas nouvelles. Les roboticiens, par exemple, étudient depuis longtemps l’interaction homme-machine. Et le domaine de la science, de la technologie et de la société a ce que l’on appelle la « théorie de l’acteur-réseau », un cadre pour décrire tout dans le monde social et naturel (humains et algorithmes) comme des acteurs qui, d’une manière ou d’une autre, sont liés les uns aux autres. Mais dans la plupart des cas, chacun de ces efforts a été cloisonné dans des disciplines distinctes.

La suite ici (Karen Hao)

(Visited 50 times, 1 visits today)
Avatar photo

Fondateur paris-singularity.fr👁️‍🗨️Entrepreneur social trackant les deep techs

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *