La révolution de l’IA n’a pas encore eu lieu

Que l’on parvienne ou non à comprendre toutes les dimensions de « l’intelligence » dans un avenir proche, améliorer la vie humaine en faisant converger humains et ordinateurs constitue un défi de taille. Si certains considèrent que ce défi est subordonné à la création d’une véritable intelligence artificielle (IA), il peut aussi être considéré de façon plus prosaïque comme la création d’une nouvelle branche de l’ingénierie.

Cette nouvelle discipline d’ingénierie s’appuiera sur des idées du siècle précédent au travers de concepts comme l' »information », « algorithme », « données », « incertitude », « calcul », « inférence », et « optimisation ». Come cette nouvelle discipline se concentrera en grande partie sur les données provenant des êtres humains et les concernant, son développement exigera aussi des perspectives issues des sciences sociales et humaines. Alors que les blocs de construction ont commencé à émerger, les principes de construction de ces blocs sont encore inexistants. A l’image des humains qui construisaient des bâtiments et des ponts avant l’apparition du génie civil, les humains procèdent à la construction de systèmes d’inférence et de prise de décision à grande échelle qui impliquent machines, humains et environnement. Tout comme les premiers bâtiments et les premiers ponts sont parfois tombés à terre, de façon imprévue et avec des conséquences tragiques, bon nombre de nos premiers systèmes d’inférence et de prise de décision à grande échelle exposent déjà de sérieuses failles conceptuelles.

La majorité de ce qui est aujourd’hui considéré comme de l’IA relève de l’apprentissage machine qui existe depuis plusieurs décennies. L’apprentissage machine est un domaine algorithmique qui mélange des concepts issus de la statistique, de l’informatique et de nombreuses autres disciplines pour concevoir des algorithmes qui traitent les données pour en tirer des prédictions et aider à prendre des décisions. Dès le début des années 1990, il était clair que l’apprentissage machine deviendrait une activité industrielle massive et, au tournant du siècle, des entreprises tournées vers l’avenir, comme Amazon, utilisaient déjà l’apprentissage machine dans toutes leurs activités, résolvant des problèmes d’arrière-plan critiques pour la détection des fraudes et la prévision de la chaîne logistique, et créant des services innovants destinés aux consommateurs, tels que des systèmes de recommandation. Comme les ensembles de données et les ressources informatiques ont augmenté rapidement au cours des deux décennies qui ont suivi, il est devenu évident que l’apprentissage machine allait bientôt alimenter non seulement Amazon, mais aussi toute entreprise dans laquelle les décisions pourraient être liées à des données à grande échelle.

Historiquement, le terme « IA » a été inventé à la fin des années 1950 en référence au désir frankensteinien de concevoir une entité possédant une intelligence de niveau humain. Le terme était destiné à valoriser une singularité : la capacité « de haut niveau » ou « cognitive » des humains à « raisonner » et à « penser ». 60 ans plus tard le raisonnement et la pensée de haut niveau restent encore insaisissables. Les progrès associés à ce que l’on appelle aujourd’hui « IA » sont surtout apparus dans les domaines de l’ingénierie associés à la reconnaissance de formes de bas niveau et au contrôle des mouvements, dans le domaine de la statistique pour identifier des modèles de données permettant de déduire des prédictions, et de tests d’hypothèses et de décisions.

Depuis les années 1960, beaucoup de progrès ont été réalisés. Ils ont souvent été réalisés dans les coulisses de laboratoires de recherche où les chercheurs se sont concentrés sur des défis d’ingénierie spécifiques. La recherche et la construction de systèmes dans des domaines tels que la récupération de documents, la classification de textes, la détection de fraudes, les systèmes de recommandation, la recherche personnalisée, l’analyse de réseaux sociaux, la planification, les diagnostics et les tests A/B ont été autant de succès majeurs qui ont alimenté le succès des entreprises telles que Google, Netflix, Facebook et Amazon.

Les deux dernières décennies ont vu des progrès majeurs dans l’industrie et le monde universitaire liés à ce qui est souvent appelée « l’intelligence augmentée ». Il s’agit de services qui augmentent l’intelligence et la créativité humaine. Un moteur de recherche peut être considéré comme un exemple d’intelligence augmentée (il augmente la mémoire humaine et les connaissances factuelles), tout comme la traduction en langage naturel (il augmente la capacité d’un humain à communiquer).

Enfin dernière discipline à considérer, celle de « l’infrastructure intelligente » (II) à la croisée des chemins entre réseau de calcul, données et entités physiques pour rendre notre environnement plus favorable, intéressant et sûr. Ces infrastructures commencent à faire leur apparition dans des domaines tels que les transports, la médecine, le commerce et la finance, avec de vastes implications pour les individus et les sociétés.

Le travail sur l’IA humaine classique est-il le meilleur ou le seul moyen de se concentrer sur ces grands défis ? Certains des succès récents les plus médiatisés de l’apprentissage machine ont été réalisés des domaines associés à l’IA humaine, tels que la vision par ordinateur, la reconnaissance vocale, le jeu et la robotique.

Mais en réalité, les humains ne sont pas très doués pour certains types de tâches cognitives. Nous faisons des erreurs. Nous avons des préjugés et nos limites. De plus, nous n’avons pas évolué pour prendre les décisions à grande échelle auxquelles les systèmes modernes d’infrastructure intelligente doivent faire face, ni pour faire face aux types d’incertitude qui surgissent dans les contextes d’infrastructure intelligente. Cela exige la capacité de gérer des référentiels distribués de connaissances qui évoluent rapidement et sont susceptibles d’être incohérents à l’échelle mondiale. De tels systèmes doivent faire face à des interactions de pointe dans la prise de décisions distribuées en temps opportun. Elles doivent faire face à des situations où elles disposent de beaucoup de données sur certains individus et peu de données sur la plupart d’entre eux. Elles doivent s’attaquer aux difficultés que pose le partage des données au-delà des frontières administratives et concurrentielles. Enfin, ces systèmes doivent intégrer des notions économiques telles que les primes et les prix dans le domaine des infrastructures statistiques et informatiques qui relient les humains les uns aux autres et aux biens de valeur. Ces systèmes peuvent être considérés non seulement comme des services, mais ils créent aussi des marchés. Les domaines de la musique, la littérature et le journalisme réclament l’émergence de tels marchés, où l’analyse des données relie producteurs et consommateurs. Et tout cela doit se faire dans le contexte de l’évolution des normes sociétales, éthiques et juridiques.

Le dialogue public actuel sur l’IA se concentre sur un sous-ensemble étroit de l’industrie et du milieu universitaire. Cela risque de nous rendre aveugles aux défis et aux possibilités que constituent l’intelligence aritificielle, l’intelligence augmentée et l’infrastructure intelligente. Si l’industrie continuera d’être le moteur de nombreux développements, le monde universitaire continuera également à jouer un rôle essentiel, non seulement en fournissant certaines des idées techniques les plus novatrices, mais aussi en réunissant des chercheurs des disciplines informatiques et statistiques et des chercheurs d’autres disciplines dont les contributions et les perspectives sont indispensables, notamment les sciences sociales, les sciences cognitives et les sciences humaines.

La suite ici (Michael Jordan)

(Visited 117 times, 1 visits today)
Avatar photo

Fondateur paris-singularity.fr👁️‍🗨️Entrepreneur social trackant les deep techs

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *