Les ingénieurs en informatique affirment que la recherche en IA devient de plus en plus coûteuse. Elle nécessite des calculs complexes effectués par des centres de données géants, laissant moins de personnes avec un accès facile à la puissance de feu informatique nécessaire pour développer des technologies derrière des produits futuristes comme les voitures autonomes ou des assistants numériques capables de voir, parler et raisonner. Le danger, disent-ils, est que la recherche de pointe en IA devienne un domaine réservés à un cercle très fermé. Les nembres de ce dernier seraient quelques grandes entreprises technologiques comme Google, Microsoft, Amazon et Facebook, qui dépensent chacune des milliards par an pour construire leurs centres de données.
Les mises en garde des chercheurs s’inscrivent dans un contexte d’inquiétude croissante quant à la puissance des grandes entreprises de technologie. Ils s’inquiètent de leur capacité à explorer des technologies du futur si leurs travaux nécessitent des quantités astronomiques d’ordinateurs.
Un rapport récent de l’Allen Institute for Artificial Intelligence, travaillant avec des données d’OpenAI, un autre laboratoire d’IA, a observé que le volume des calculs nécessaires pour être un leader dans des tâches confiées à l’IA comme la compréhension du langage, le jeu et le sens commun a augmenté d’environ 300.000 fois au cours des six dernières années. Tout ce carburant informatique est nécessaire pour turbocompresser les modèles de logiciels d’apprentissage en profondeur, dont les performances s’améliorent avec plus de calculs et plus de données. L’apprentissage en profondeur profond a été le principal moteur des percées de l’IA au cours des dernières années.
Les universitaires s’inquiètent également de la puissance consommée par les logiciels d’IA avancés. La formation d’un grand modèle d’apprentissage en profondeur peut générer la même empreinte carbone que la durée de vie de cinq voitures américaines, en incluant l’essence.