L’intégration de systèmes d’IA sur les puces va faire exploser la “cognification” des objets

Les processeurs traditionnels intégrés dans la plupart des appareils mobiles ne sont pas optimisés pour l’intelligence artificielle (IA), qui a tendance à consommer beaucoup de ressources de traitement, de mémoire, des données et de la batterie sur des appareils aux ressources limitées. En conséquence, l’IA a tendance à s’exécuter lentement sur les terminaux mobiles, tout en vidant rapidement leurs batteries, en consommant une bande passante sans fil démesurée et en exposant des informations locales sensibles au fur et à mesure que les données circulent dans le cloud. Les appareils mobiles sont donc de plus en plus souvent équipés de systèmes sur puce qui sont optimisés pour le traitement local de l’IA.

Ce qui distingue les systèmes d’IA intégrés sur une puce des processeurs mobiles traditionnels, c’est qu’ils sont équipés de processeurs disposant de réseaux neuronaux spécialisés, tels que les unités de traitement graphique ou GPU, ou les unités de traitement des tenseurs ou TPU.. Ces puces optimisées pour l’IA déchargent la puce de l’unité centrale de traitement de l’appareil, ce qui permet un traitement autonome plus local de l’IA et réduit le besoin de communiquer avec un cloud. L’ensemble de la configuration est optimisé soit pour des charges de travail très spécifiques ; comme la reconnaissance faciale, la reconnaissance vocale, le traitement du langage naturel ou la réalité augmentée ; soit pour une gamme de fonctions d’IA pouvant être exécutées directement sur l’appareil mobile. En outre, les systèmes d’IA sont généralement dotés d’interfaces de développement d’applications, de bibliothèques et d’outils qui permettent aux développeurs soit de concevoir le système d’IA à partir de zéro, soit d’importer des modèles d’apprentissage machine et d’apprentissage en profondeur profond construits via TensorFlow, Caffe2, PyTorch par exemple.

Au cours des derniers mois, les signes se multiplient venant confirmer l’intégration massive des systèmes d’IA sur les puces :

  1. L’A11 Bionic SoC d’Apple Inc. qui, entre autres, pilote la fonction d’authentification Face ID de la dernière génération d’iPhones
  2. Intel Corp. a été l’un des premiers acteurs de ce marché lorsque, l’année dernière, elle a lancé son système Movidius Myriad X sur une puce pour le traitement de la vision pilotée par l’IA dans les caméras intelligentes et autres périphériques
  3. Le Kirin 970 de Huawei, est livré avec son propre moteur de traitement neuronal
  4. Des rumeurs abondent selon lesquelles Google Inc. et Amazon.com Inc. développent leurs propres systèmes d’IA pour les intégrer sur une puce qui équiperaient leurs appareils commercialisés
  5. Le partenariat récemment annoncé par Nvidia Corp. avec ARM Holdings Ltd. pour intégrer le Deep Learning Accelerator ou NVDLA de Nvidia dans la plate-forme d’apprentissage machine ARM Project Trillium.
  6. Lors d’une autre annonce importante, Qualcomm Inc. a lancé deux nouveaux systèmes d’IA à faible consommation sur une puce : le QCS605 et le QCS603. Ceux-ci sont conçus pour optimiser l’inférence sur les appareils mobiles connectés dans les applications de vision par ordinateur, en particulier les caméras intelligentes pour la sécurité, le sport, le portable, la réalité virtuelle et la robotique.

La suite ici (James Kobielus)

(Visited 112 times, 1 visits today)
Avatar photo

Fondateur paris-singularity.fr👁️‍🗨️Entrepreneur social trackant les deep techs

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

%d blogueurs aiment cette page :