Le futur de l’IA consistera à recueillir moins de données, pas davantage

Les entreprises qui envisagent d’investir dans l’intelligence artificielle (IA) devraient d’abord considérer, qu’au cours des cinq prochaines années, les applications et les machines deviendront moins artificielles et plus intelligentes. Elles s’appuieront moins sur de grands volumes de données que sur un raisonnement descendant qui ressemble davantage à la façon dont les humains abordent les problèmes et les tâches. Considérez ces mélanges de lettres et de chiffres que les sites Web utilisent pour déterminer si vous êtes un humain ou un robot. Appelés CAPTCHAs (Completely Automated Public Turing tests to tell Computers and Humans Apart), ils sont faciles à résoudre pour les humains et difficiles pour les ordinateurs. En s’appuyant sur les “neurosciences informatiques”, les chercheurs de Vicarious ont mis au point un modèle capable de venir à bout des CAPTCHA à un rythme beaucoup plus rapide que les réseaux neuronaux profonds en utilisant 300 fois moins de données. Pour analyser les CAPTCHAs avec une précision de près de 67%, le modèle Vicarious n’a eu besoin que de 5 exemples par personnage, tandis qu’un réseau neuronal profond à la pointe de la technologie a eu besoin d’être entraîné au travers d’un jeu de données 50.000 fois plus important de chaînes CAPTCHA réelles.

Au cours des années précédentes l’IA a progressé grâce à l’apprentissage en profondeur et à l’apprentissage machine, en construisant des systèmes en leur faisant absorber des montagnes de données. Mais ces réseaux neuronaux avides de données ont de sérieuses limites. Les systèmes gourmands en données sont également confrontés à des contraintes commerciales et éthiques. Toutes les entreprises n’ont pas le volume de données nécessaire pour développer ces systèmes. L’utilisation d’énormes quantités de données des citoyens soulève également des questions relative à la protection de la vie privée.

En modélisant ce qu’un expert humain ferait face à une situation incertaine en disposant peu de données, l’IA “descendante” peut battre les approches gourmandes en données pour concevoir et contrôler de nombreuses variétés d’équipements d’usine par exemple. Siemens utilise l’IA “descendante” pour contrôler le processus de combustion très complexe des turbines à gaz, où l’air et le gaz entrent dans une chambre, s’enflamment et brûlent à des températures atteignant 1 600 degrés Celsius. En utilisant des méthodes d’apprentissage machine ascendantes, la turbine à gaz devrait fonctionner pendant un siècle avant de produire suffisamment de données pour commencer la formation.

Diverses organisations s’efforcent d’enseigner aux machines à naviguer dans le monde en faisant appel au bon sens pour comprendre les objets et les actions de notre quotidien, communiquer naturellement, gérer les situations imprévues et tirer des leçons des expériences.

AI2 développe un portefeuille de tâches sous-jacentes au “bon sens artificiel” dont les progrès peuvent être mesurés. La DARPA investit 2 milliards de dollars dans la recherche sur l’IA. Dans son programme Machine Common Sense (MCS), les chercheurs créeront des modèles qui imitent les domaines fondamentaux de la cognition humaine. Les humains trient régulièrement, et souvent sans effort, les probabilités et agissent selon les probabilités les plus probables, même avec relativement peu d’expérience préalable. On enseigne maintenant aux machines à imiter ce raisonnement par l’application de processus gaussiens ; des modèles probabilistes qui peuvent faire face à une grande incertitude, agir sur des données rares et apprendre de l’expérience. Alphabet, la société mère de Google, a lancé le projet Loon, conçu pour fournir un service Internet aux régions du monde mal desservies par un système de ballons géants planant dans la stratosphère. Leurs systèmes de navigation utilisent des processus gaussiens pour prédire où, dans les vents stratifiés et très variables en altitude, les ballons doivent aller. De tels processus gaussiens sont très prometteurs. Ils n’ont pas besoin de quantités massives de données pour reconnaître les modèles ; les calculs nécessaires à l’inférence et à l’apprentissage sont relativement faciles, et si quelque chose tourne mal, on peut en retracer la cause, contrairement aux boîtes noires des réseaux neuronaux.

La suite ici (H. James Wilson&Paul R. Daugherty&Chase Davenport)

(Visited 100 times, 1 visits today)
Avatar photo

Fondateur paris-singularity.fr👁️‍🗨️Entrepreneur social trackant les deep techs

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

%d blogueurs aiment cette page :