Quand Google DeepMind fait se confronter plusieurs systèmes d’IA

Les chercheurs de la filiale de Google, DeepMind, ont décidé de tester comment interagiraient différents systèmes d’IA lorsqu’ils sont confrontés à des « dilemmes sociaux ». Il s’agit d’un terme générique désignant les situations au sain desquelles les individus peuvent individuellement profiter d’agir égoïstement, mais où tout le monde perd si tout le monde est égoïste. L’exemple le plus célèbre est celui du dilemme du prisonnier : 2 individus peuvent choisir de se trahir pour obtenir une récompense, mais perdent si les deux choisissent cette option.

Pour tester cela, les chercheurs de DeepMind, les chercheurs ont « lâché » les agents IA dans quelques jeux vidéos basiques. Ce qu’ils ont trouvé s’avère intéressant, mais surprenant: les IA ont modifié leur comportement, devenant plus coopératifs ou antagonistes, selon le contexte. Les résultats de l’étude montrent donc que le comportement des IA varie en fonction du cadre défini. Si les règles récompensent le comportement agressif («Zap ce joueur pour obtenir plus de pommes») l’IA sera plus agressive ; si elles récompensent le comportement coopératif («Travaillez ensemble et vous obtenez tous deux des points!), elles seront plus coopératives. Pourquoi c’est important ? Parce que cela signifie qu’une partie du défi que représente la maîtrise de l’IA dans le futur consiste à définir et mettre en place les bonnes règles.

La suite ici

(Visited 88 times, 1 visits today)
Avatar photo

Fondateur paris-singularity.fr👁️‍🗨️Entrepreneur social trackant les deep techs

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *