Les réseaux neuronaux sont comparés à des «boîtes noires». Après avoir été entraîné, un réseau neuronal peut exceller pour classer des données, mais même ses créateurs ne savent pas dire précisément pourquoi. Cette opacité est moins vraie pour les données visuelles, mais reste un problème majeur pour les systèmes de traitement de texte. Les chercheurs du MIT ont donc mis au point une méthode pour être en mesure d’identifier la logique derrière les prédictions émises par les réseaux neuronaux, tels que le système de deep-learning AlphaGo de Google par exemple.
(Visited 102 times, 1 visits today)