MIT : savoir expliquer la logique des résultats du machine-learning

6

Les réseaux neuronaux sont comparés à des «boîtes noires». Après avoir été entraîné, un réseau neuronal peut exceller pour classer des données, mais même ses créateurs ne savent pas dire précisément pourquoi. Cette opacité est moins vraie pour les données visuelles, mais reste un problème majeur pour les systèmes de traitement de texte. Les chercheurs du MIT ont donc mis au point une méthode pour être en mesure d’identifier la logique derrière les prédictions émises par les réseaux neuronaux, tels que le système de deep-learning AlphaGo de Google par exemple.

La suite ici

(Visited 102 times, 1 visits today)
Avatar photo

Fondateur paris-singularity.fr👁️‍🗨️Entrepreneur social trackant les deep techs

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *