Metaverse ou l’Internet du futur : la puissance informatique, contrainte et opportunité

deep tech innovation Metaverse realite virtuelle
deep tech innovation Metaverse realite virtuelle
Image par Morgan Ren de Pixabay

L. Bardon . – La promesse de l’immense gâteau qu’est le Metaverse va certainement alimenter les investissements déjà consentis pour développer la puissance informatique sur laquelle il s’appuiera. Avec des résultats aussi visibles que sur les progrès de l’IA. Depuis 2012, la puissance informatique utilisée pour entraîner les principaux systèmes d’IA a augmenté de façon exponentielle en doublant tous les 3,5 mois (en comparaison, la loi de Moore prévoit un doublement tous les 18 mois), soit de plus de 300 000 fois. L’augmentation de la puissance de calcul a été un élément clé des progrès de l’IA. Aura-t-elle le même impact sur l’émergence du Metaverse ?

A mesure que le monde virtuel est augmenté, le monde « réel » le sera aussi. Chaque année, de plus en plus de capteurs, de caméras et de puces IoT seront intégrés dans le monde physique qui nous entoure, et beaucoup d’entre eux seront connectés en temps réel à un simulacre virtuel qui pourra interagir en retour. Pendant ce temps, nos appareils personnels serviront de passeport pour nombre de ces expériences, et en généreront une partie. En bref, une grande partie du monde qui nous entoure sera continuellement interconnectée et en ligne. Nous y compris. Or, la disponibilité et le développement de la puissance de calcul vont contraindre et définir le Metaverse. Peu importe la quantité de données que l’on peut recevoir, la rapidité avec laquelle on les reçoit ou la raison pour laquelle on les reçoit, si elles ne peuvent pas être utilisées.

Prenez par exemple les expériences de type Metaverse les plus populaires aujourd’hui, comme Fortnite ou Roblox. Si le succès de ces plateformes repose sur d’incroyables réussites créatives, les idées sous-jacentes sont loin d’être nouvelles – elles sont simplement nouvellement possibles. Les développeurs imaginent depuis longtemps des expériences avec des dizaines de joueurs en direct (voire des centaines ou des milliers) dans une simulation unique et partagée, ainsi que des environnements virtuels qui ne sont liés que par l’imagination. Ce n’est qu’au milieu des années 2010 que des millions d’appareils grand public ont pu traiter un jeu avec 100 joueurs réels en un seul match, et que le matériel nécessaire était suffisamment abordable, disponible et capable de synchroniser ces informations en quasi temps réel. Une fois cette barrière technique franchie, l’industrie des jeux a été rapidement dépassée par des jeux collaboratifs riches et un grand nombre d’utilisateurs simultanés. Et ces jeux se sont ensuite rapidement étendus aux types d’expériences médiatiques qui étaient auparavant « IRL seulement » (par exemple, le concert de Travis Scott dans Fortnite, ou les X de Lil Nas dans Roblox).

Pourtant, même quatre ans après l’apparition de ces jeux, un certain nombre d’astuces sont encore nécessaires pour assurer leur bon fonctionnement. Par exemple, la plupart des joueurs ne sont jamais vraiment ensemble. Ils sont éparpillés sur une grande carte. Cela signifie que, bien que le serveur doive suivre ce que fait chaque joueur, l’appareil de chaque joueur n’a pas besoin de les restituer ou de suivre/traiter leurs actions. Et lorsque Fortnite rassemble les joueurs dans un espace plus confiné pour un événement social, comme un concert, il réduit le nombre de participants à 50, et limite ce qu’ils peuvent faire par rapport aux modes de jeu standard. Moins de 1 % des Mac et PC de bureau ou portables peuvent même jouer à Microsoft Flight Simulator dans ses paramètres de plus basse fidélité. Même les consoles Xbox de nouvelle génération de Microsoft, la série S et la série X, qui sont sorties deux mois après le titre, ne le prennent pas encore en charge (mais elles le feront plus tard cette année).

Il existe plusieurs écoles de pensée différentes lorsqu’il s’agit de répondre à nos besoins toujours croissants en matière de calcul et à sa relative rareté. L’une d’entre elles consiste à concentrer autant que possible le traitement de la simulation dans le cloud, plutôt que sur des dispositifs informatiques locaux. Google Stadia et Amazon Luna, par exemple, traitent tous les jeux vidéo dans le cloud, puis transmettent l’ensemble de l’expérience rendue à l’appareil de l’utilisateur sous forme de flux vidéo.

Une autre thèse suggère qu’il vaut mieux miser sur les progrès de l’informatique locale, plutôt que sur des superordinateurs distants qui doivent ensuite s’appuyer sur des réseaux peu fiables. Le rendu et le streaming vidéo dans le cloud sont une idée séduisante, mais ils augmentent aussi considérablement la quantité de données à faible latence qui doivent être fournies. Et même avec une latence ultra-faible, il est peu judicieux de diffuser (plutôt que de traiter localement) les données issues de la réalité augmentée, étant donné la vitesse à laquelle une caméra se déplace et les nouvelles données d’entrée sont reçues. Compte tenu des exigences de calcul intensif liées à la réalité augmentée, il est donc probable que nos appareils personnels/mobiles de base seront capables de faire un travail « suffisant » pour un rendu en temps réel.

Par conséquent, les serveurs dans le cloud sont généralement confrontés à des problèmes d’utilisation en raison de la nécessité de prévoir les pics de demande. Un service de jeux dans le cloud peut nécessiter 75 000 serveurs dédiés pour la région de Cleveland à 20 heures le dimanche soir, mais seulement 4 000 à 4 heures le lundi matin. C’est pourquoi AWS accorde aux clients un tarif réduit s’ils louent des serveurs à Amazon à l’avance (« instances réservées »). Les clients ont un accès garanti pour l’année suivante, car ils ont payé pour le serveur, et Amazon empoche la différence entre son coût et le prix du client. Si ce modèle décolle, les prix s’amélioreront, mais ce modèle restera coûteux. Les centres de données génèrent également une chaleur considérable, dont le refroidissement nécessite une énergie coûteuse, et le passage du streaming de données dans le cloud à du contenu haute résolution et à fréquence d’images élevée implique également des coûts de bande passante nettement plus élevés. Ces deux dépenses s’additionnent par rapport à l’informatique locale. Surtout, les processeurs grand public s’améliorent beaucoup plus vite que les réseaux, car ils sont remplacés beaucoup plus fréquemment.

L’informatique en périphérie est souvent présentée comme une stratégie d’infrastructure clé pour le Metaverse. Plus précisément, ce modèle implique le déploiement de superordinateurs aux nœuds clés du réseau, entre les consommateurs et les serveurs centraux plus éloignés. L’informatique de périphérie est compatible avec les deux écoles de pensée mentionnées auparavant car elle aide les utilisateurs finaux à compléter leur informatique locale tout en minimisant les risques de latence et de congestion du réseau. La valeur appliquée de cette approche reste toutefois incertaine. La plupart des services grand public qui utilisent l’informatique en périphérie, comme Netflix, s’en servent en réalité comme d’un disque dur périphérique qui stocke les fichiers plus près de l’utilisateur.

Matthew Prince, fondateur et PDG de Cloudflare, a affirmé que la véritable opportunité de l’informatique en périphérie réside dans la conformité. À mesure qu’Internet se fragmente en raison des réglementations gouvernementales exigeant le traitement local des données des utilisateurs, les entreprises n’auront d’autre choix que de rapprocher le stockage et le traitement de ces données de l’utilisateur. Il en sera probablement de même dans le Metaverse ; les exigences gouvernementales ne feront que s’alourdir avec le temps, comme c’est déjà le cas depuis longtemps en Chine et en Russie. Et si Google croit fermement à l’informatique de périphérie, Apple pense que le véritable mode d’informatique de périphérie sera, à l’avenir, les téléphones mobiles de plus en plus puissants que nous avons dans la poche, car ils supporteront la majeure partie de la charge des autres appareils qui nous entourent, comme les montres et les lunettes intelligentes.

Le besoin insatiable de traitement inspire invariablement des notions d’informatique décentralisée. Avec autant d’appareils puissants et souvent inactifs dans les foyers et les mains des consommateurs, il semble inévitable que nous développions des systèmes pour les utiliser efficacement. En fait, dès les années 1990, des programmes ont vu le jour pour le calcul distribué à l’aide du matériel grand public de tous les jours. Parmi les exemples, citons le programme SETI@HOME de Berkeley, dans le cadre duquel les consommateurs se portaient volontaires pour utiliser leurs ordinateurs personnels afin d’alimenter la recherche de vie extraterrestre. Mais les concepts plus récents de blockchain, notamment les contrats intelligents et les tokens, fournissent un modèle économique pour ce partage. Une telle place de marché pourrait-elle fournir une partie des énormes quantités de capacité de traitement qui seront requises par le Metaverse ?

Imaginez que, lorsque vous naviguez dans des espaces immersifs, votre compte offre en permanence les tâches informatiques nécessaires aux appareils mobiles détenus mais inutilisés par des personnes proches de vous, peut-être des personnes marchant dans la rue à côté de vous, afin de rendre ou d’animer les expériences que vous rencontrez. Bien sûr, plus tard, lorsque vous n’utiliserez pas vos propres appareils, vous gagnerez des jetons car ils vous rendront la pareille. Les partisans de ce concept de crypto-échange le considèrent comme une caractéristique inévitable de toutes les futures puces électroniques.

La suite ici (Matthew Ball)

(Visited 148 times, 1 visits today)
Avatar photo

Fondateur paris-singularity.fr👁️‍🗨️Entrepreneur social trackant les deep techs

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *