Technologie sans conscience n’est que ruine de l’Homme.
Pourquoi cet article est intéressant ? L. Bardon . – Selon le fondateur de Google DeepMind Demis Hassabis lors de l’Economist Innovation Summit 2018 à Londres : “Le cerveau est un système intégré, où différentes parties du cerveau sont responsables de différentes compétences cognitives (l’hippocampe pour la mémoire épisodique, le cortex préfrontal pour votre contrôle, etc…). Vous pouvez considérer l’apprentissage en profondeur tel qu’il est aujourd’hui comme l’équivalent dans le cerveau de nos cortex sensoriels : notre cortex visuel ou cortex auditif. Or, la véritable intelligence va bien au-delà de ça. Il faut la recombiner en une pensée et un raisonnement symbolique de niveau supérieur, beaucoup de choses que l’IA classique a essayé de traiter dans les années 80
La volonté d’automatiser les tâches a entraîné la perte d’emplois et la multiplication de tâches fastidieuses comme le nettoyage des données et la modération de contenu. La volonté de créer des modèles toujours plus grands a fait exploser la consommation d’énergie liée à l’IA. L’apprentissage en profondeur a également induit l’émergence d’un modèle basé sur l’extraction constante de nos données, souvent sans notre consentement, pour entraîner des produits tels que les systèmes de reconnaissance faciale. Et les algorithmes de recommandation ont exacerbé la polarisation politique, tandis que les grands modèles linguistiques n’ont pas réussi à nettoyer la désinformation. C’est cette situation que Timnit Gebru et un mouvement croissant de chercheurs partageant les mêmes idées veulent changer.
Les révolutions technologiques ont tendance à s’appuyer sur une part importante d’activités devenues bon marché. L’IA est, par essence, une technologie de prédiction, de sorte que le changement économique engendrera surtout une baisse du coût de la prédiction. La valeur de l’IA c’est sa capacité à faire des prédictions, à calculer plus rapidement et plus précisément que cela n’a jamais été possible. L’IA est surtout une avancée fondamentale dans le domaine des statistiques, et pas dans le domaine de l’intelligence (Il ne s’agit que d’un aspect de l’intelligence, la prédiction). Au fur et à mesure que le coût de la prévision diminue, non seulement les activités qui étaient historiquement axées sur la prévision deviennent moins coûteuses (gestion des stocks et la prévision de la demande par exemple) mais nous utilisons également la prévision pour nous attaquer à d’autres problèmes. Au fur et à mesure que l’IA s’améliore, la valeur de la prédiction humaine va donc diminuer parce que la prédiction artificielle fournira un substitut meilleur marché et plus performant meilleur que la prédiction humaine, tout comme les machines l’ont fait en arithmétique.
Le présent est la bêta version du futur.
Synthèse
Au début du mois, DeepMind a présenté un nouveau modèle d’IA « généraliste » appelé Gato. Ce modèle peut jouer à des jeux vidéo Atari, légender des images, discuter, empiler des blocs via un vrai bras robotique, a annoncé le laboratoire d’IA appartenant à Alphabet. En tout, Gato peut effectuer 604 tâches différentes.
L’un des meilleurs chercheurs de DeepMind et coauteur de l’article sur Gato, Nando de Freitas, n’a pu contenir son excitation. « Game over ! » Sans surprise, l’annonce de de Freitas a déclenché un battage médiatique autour du fait que DeepMind soit « sur le point » d’avoir conçu une intelligence artificielle au même niveau qu’un humain. Ce n’est pas la première fois que ce type de battage médiatique dépasse la réalité. D’autres nouveaux modèles d’IA passionnants, tels que le générateur de texte GPT-3 et le générateur d’images DALL-E d’OpenAI, ont suscité des déclarations tout aussi grandioses. Pour de nombreux acteurs du domaine, ce type de discours fiévreux éclipse d’autres domaines de recherche importants en matière d’IA.
C’est dommage, car Gato constitue bien une étape intéressante. Certains modèles ont commencé à mélanger différentes compétences : DALL-E, par exemple, génère des images à partir de descriptions textuelles. D’autres utilisent une seule technique d’entraînement pour apprendre à reconnaître des images et des phrases. Et AlphaZero de DeepMind a appris à jouer au go, aux échecs et au shogi.
Mais voici la différence cruciale : AlphaZero ne pouvait apprendre qu’une seule tâche à la fois. Après avoir appris à jouer au go, il devait oublier tout ce qu’il avait appris avant de jouer aux échecs, et ainsi de suite. Il ne pouvait pas apprendre à jouer aux deux jeux à la fois. C’est ce que fait Gato : il apprend plusieurs tâches différentes en même temps, ce qui signifie qu’il peut passer de l’une à l’autre sans avoir à oublier une compétence avant d’en apprendre une autre.
C’est une petite avancée, mais elle est significative.
L’inconvénient est que Gato n’exécute pas les tâches aussi bien que les modèles qui ne peuvent faire qu’une seule chose.
D’une certaine manière, le fait que DeepMind ait qualifié Gato de « généraliste » pourrait avoir fait de lui une victime du battage excessif du secteur de l’IA autour de l’AGI. Les systèmes d’IA d’aujourd’hui sont dits « étroits », ce qui signifie qu’ils ne peuvent effectuer qu’un ensemble spécifique et restreint de tâches, comme générer du texte.