L. Bardon . – Si le concept de Metaverse a été décrit à plusieurs reprises dans la littérature, il reste néanmoins à ce jour difficile à définir de façon exhaustive. Il ne s’agit ni d’un jeu, ni d’une application, ni d’un monde virtuel, ni d’un assemblage d’outils. Il s’agit en fait d’un peu tout ça. Le Metaverse s’appuiera sur Internet et le transformera de manière itérative. Il nous placera à l’intérieur d’une version “incarnée”, “virtuelle” ou “3D” de l’internet, et ce de manière quasi permanente aux cotés des milliards d’autres utilisateurs en temps réel.
Considérons, à titre d’exemple limité, les applications d’avatars telles que Bitmoji, Animoji et Snapchat AR. Ces applications dépendent de CPU/GPU assez performants, ainsi que de logiciels sophistiqués. Mais elles nécessitent également et sont enrichies par des caméras et des capteurs de suivi des visages puissants qui ne cessent de s’améliorer. Les modèles d’iPhone les plus récents suivent désormais 30 000 points sur votre visage grâce à des capteurs infrarouges. Bien que ces capteurs soient le plus souvent utilisés pour Face ID, ils peuvent désormais être connectés à des applications telles que l’application Live Link Face d’Epic Games, permettant ainsi à tout consommateur de créer (et de diffuser) un avatar haute fidélité en temps réel, basé sur Unreal Engine. La prochaine étape pour Epic sera d’utiliser cette fonctionnalité pour faire correspondre en direct le visage d’un joueur de Fortnite à son personnage dans le jeu.
Quant à Object Capture d’Apple, il permet aux utilisateurs de créer en quelques minutes des objets virtuels haute fidélité à partir de photos prises sur leur iPhone standard. Ces objets peuvent ensuite être transplantés dans d’autres environnements virtuels, réduisant ainsi le coût et augmentant la fidélité des biens synthétiques, ou superposés à des environnements réels à des fins d’art, de design et autres expériences de réalité augmentée. De nombreux nouveaux smartphones, dont l’iPhone 11 et l’iPhone 12, sont équipés de nouvelles puces à bande ultra-large qui émettent 500 000 000 d’impulsions RADAR par seconde et de récepteurs qui traitent les informations en retour. Cela permet aux smartphones de créer des cartes RADAR étendues de tout, de votre maison, à votre bureau….
Les casques de réalité étendue sont un autre excellent exemple à la fois de progrès et de besoins exceptionnels en matière de matériel. Le premier Oculus grand public (2016) avait une résolution de 1080×1200 par œil, tandis que l’Oculus Quest 2, sorti quatre ans plus tard, avait 1832×1920 par œil (ce qui équivaut à peu près à la 4K). Palmer Luckey, l’un des fondateurs d’Oculus, estime que plus du double de cette résolution est nécessaire pour que la réalité virtuelle surmonte la pixellisation et devienne un dispositif grand public. Alors que les humains peuvent voir en moyenne à 210°, l’écran HoloLens 2 de Microsoft ne couvre que 52°. Les prochaines lunettes de Snap ne couvrent que 26,3°.
Un autre exemple : le projet Starline de Google, une cabine matérielle conçue pour donner aux conversations vidéo l’impression d’être dans la même pièce que l’autre participant, alimentée par une douzaine de capteurs de profondeur et de caméras, ainsi que par un écran à champ lumineux multidimensionnel en tissu et des haut-parleurs audio spatiaux.
Compte tenu des capacités des appareils grand public, il n’est pas surprenant que le matériel industriel/d’entreprises, dont le prix et la taille sont plusieurs fois supérieurs, dispose de capacités encore supérieures. Leica vend aujourd’hui des caméras photogrammétriques à 20 000 $ qui peuvent atteindre 360 000 « points de balayage laser par seconde » et qui sont conçues pour capturer des centres commerciaux, des bâtiments et des maisons avec une clarté et des détails extrêmement réalistes. Quant à Quixel d’Epic Games, il utilise des caméras exclusives pour générer des « MegaScans » environnementaux composés de dizaines de milliards de triangles précis au pixel près. Ces dispositifs permettent aux entreprises de produire plus facilement et à moindre coût des « mondes miroirs » de haute qualité ou des « jumeaux numériques » d’espaces physiques, et d’utiliser des scans du monde réel pour produire des mondes imaginaires de meilleure qualité et moins coûteux.