Chine vs Etats-Unis : le vainqueur de la course à l’IA ne sera pas forcément le + centralisé

Image parGerd Altmann de Pixabay

D’après les experts en politique étrangère, les États-Unis se sont lancés dans une course à l’armement contre la Chine en terme de capacités en intelligence artificielle (IA) ; une course qui a de graves implications pour la sécurité nationale. La version conventionnelle de cette histoire suggère que les États-Unis sont désavantagés en raison des restrictions qu’ils s’imposent en matière de collecte de données et de protection de la vie privée de leurs citoyens, tandis que la Chine, un État de surveillance sans restriction, est avantagée. Dans cette vision, les données recueillies par la Chine seront introduites dans ses systèmes, ce qui conduira à des IA plus puissantes avec des capacités que nous ne pouvons qu’imaginer aujourd’hui.

Les États-Unis ont été les pionniers du “capitalisme de surveillance”, pour reprendre le terme du professeur Shoshana Zuboff, de l’Université Harvard, où les données sur la population sont recueillies par des centaines de grandes et de petites entreprises pour le bénéfice des entreprises ; et mutuellement partagées ou vendues à profit. L’État prend en compte ces données.

La Chine, par contre, est beaucoup plus centralisée. Les géants d’Internet collectent le même type de données, mais elles sont partagées avec le gouvernement, combinées à des données collectées par le gouvernement, et utilisées pour le contrôle social. Chaque citoyen chinois possède un numéro d’identification national qui est exigé par la plupart des services et qui permet de relier facilement les données entre elles.

L’objectif officiel de la Chine est de devenir le leader mondial de l’IA d’ici 2030, aidé en partie par toute cette collecte massive de données et la corrélation. Tout cela peut paraître impressionnant, mais la transformation de bases de données massives en capacités d’intelligence artificielle ne correspond pas à la réalité technologique.

Tous les systèmes d’IA modernes suivent les mêmes méthodes de base. En utilisant beaucoup de puissance de calcul, différents modèles d’apprentissage machine sont essayés, modifiés et réessayés. Ces systèmes utilisent une grande quantité de données et une fonction d’évaluation pour distinguer les modèles et les variations qui fonctionnent bien de ceux qui fonctionnent moins bien. Après avoir essayé un grand nombre de modèles et de variantes, le système choisit celui qui fonctionne le mieux.

De grands ensembles de données sont essentiels pour que cela fonctionne, mais cela ne signifie pas que le fait de disposer de plus de données soit nécessairement mieux, ou que le système avec le plus de données soit automatiquement le meilleur système. Les prochaines avancées de la recherche, dans le domaine de l’apprentissage machine, sont axés autour de deux domaines. Le premièr consiste à améliorer la façon dont ces systèmes font la distinction entre les variations d’un algorithme. Le second concerne les algorithmes d’apprentissage machine eux-mêmes.

La suite ici (Bruce Schneier & James Waldo)

(Visited 39 times, 1 visits today)
Avatar photo

Fondateur paris-singularity.fr👁️‍🗨️Entrepreneur social trackant les deep techs

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

%d blogueurs aiment cette page :