Intel et Facebook travaillent ensemble sur une puce qui devrait diminuer le coût de l’utilisation de l’intelligence artificielle (IA) par les grandes entreprises. Cette dernière promet d’exécuter plus efficacement des algorithmes d’apprentissage machine pré-entraînés, ce qui signifie que moins de matériel et moins d’énergie seront nécessaires pour que l’IA se décline en cas d’usage réels.
Intel a démarré le développement de sa puce dédiée à l’IA en faisant l’acquisition d’une startup appelée Nervana Systems en 2016. Intel a ensuite annoncé sa première puce IA, le processeur Intel Nervana Neural Network Processor (NNP), un an plus tard. La dernière puce d’Intel est optimisée pour exécuter des algorithmes qui ont déjà été entraînés, ce qui devrait la rendre plus efficace. La nouvelle puce est appelée NNP-I (le I est pour « inférence »).
Au cours des dernières années, le développement de nouveaux matériels d’IA a connu un essor spectaculaire. Un grand nombre de startups s’affairent à développer des puces optimisées pour l’IA : Graphcore (une société britannique qui a récemment levé 200 millions de dollars d’investissements), ou un ensemble d’entreprises chinoises telles que Cambricon, Horizon Robotics et Bitmain par exemple.
Intel doit également faire face à la concurrence de Google et d’Amazon, qui développent tdes puces pour alimenter les services d’IA dans le cloud. Google a révélé pour la première fois travailler sur le développement de la puce TensorFlow en 2016. Amazon a annoncé en décembre dernier qu’elle avait développé ses propres puces dédiées à l’IA, dont une dédiée à l’inférence.