En 1943, Thomas Watson, le dirigeant d’IBM, a prédit que le marché mondial des ordinateurs atteindrait « peut-être cinq »machines par foyer. Il avait tort – vous avez probablement plus que cela dans votre propre maison, avouons-le – mais à l’époque, cela avait du sens. Après tout, si les ordinateurs étaient encore de gigantesques machines d’addition alimentées par des tubes à vide, vous n’en voudriez probablement pas plus de cinq non plus.
C’est une histoire similaire avec les hologrammes.
Même dans les années 1990, plus de 40 ans après que Dennis Gabor a eu pour la première fois l’idée d’utiliser l’interférence de front d’onde pour reconstruire des images en trois dimensions, la science-fiction les utilisait aussi pour alimenter des aventures.
En fait, les hologrammes peuvent fonctionner sur un smartphone.
Il y a environ deux ans, des chercheurs du MIT ont fait une percée – une technologie qu’ils ont baptisée « holographie tensorielle ». Depuis lors, le projet n’a cessé de s’améliorer, et aujourd’hui, l’équipe travaille avec un système qui, selon elle, est « entièrement automatique, robuste aux entrées du monde réel rendues et mal alignées, produit des limites de profondeur réalistes et corrige les aberrations de vision ».
« Nous sommes étonnés de la qualité de ses performances », a commenté le co-auteur du projet Wojciech Matusik en 2021 . Et c’est aussi économique : la quantité de puissance informatique et de mémoire requise pour cette holographie 3D en temps réel est inférieure à un mégaoctet.
« Ce n’est pas beaucoup « , a souligné Matusik, « compte tenu des dizaines et des centaines de gigaoctets disponibles sur le dernier téléphone portable. »
Les hologrammes ont parcouru un long chemin depuis les premières images statiques générées par laser du début du XXe siècle. Même alors, c’était une chose compliquée à mettre en place : il fallait diviser un faisceau laser en deux, la moitié du faisceau étant utilisée pour éclairer le sujet et l’autre moitié servant de référence pour la phase des ondes lumineuses.
Les ordinateurs ont facilité les choses, mais ils sont aussi venus avec leurs lots de problèmes. Les superordinateurs conçus pour exécuter des simulations basées sur la physique de la configuration laser étaient imparfaits et coûteux en termes de calcul : « Parce que chaque point de la scène a une profondeur différente, vous ne pouvez pas appliquer les mêmes opérations pour tous », a expliqué Liang Shi, responsable de l’étude. « Cela augmente considérablement la complexité. »
L’équipe a donc adopté une approche complètement différente.
C’est l’avenir, ont-ils raisonné, et nous n’avons pas toujours besoin de trouver nos propres solutions aux problèmes, pas quand nous pouvons simplement configurer un ordinateur pour qu’il s’auto-apprenne. Ils ont construit un réseau neuronal convolutif et l’ont configuré pour faire correspondre 4 000 paires d’images générées par ordinateur : l’une une image 2D contenant des informations sur la couleur et la profondeur de chaque pixel individuel, l’autre un hologramme de cette image.
Le résultat : un programme informatique tellement doué pour créer des hologrammes qu’il a même surpris l’équipe elle-même. « C’est un bond considérable qui pourrait complètement changer l’attitude des gens envers l’holographie », a déclaré Matusik. « Nous avons l’impression que les réseaux de neurones sont nés pour cette tâche. »
Alors, qu’est ce que cela va apporter pour la technologie ?
Certains experts ont souligné les avantages des hologrammes par rapport à la réalité virtuelle (VR) parfois nauséabonde et fatigante pour les yeux – peut-être que l’holodeck est un avenir plus probable que le métaverse. D’autres applications incluent l’impression 3D, souligne l’équipe, ainsi que les visualisations médicales, la microscopie et la science des matériaux.
« Les écrans 3D holographiques offrent des expériences interactives différenciantes des téléphones portables ou des écrans de réalité augmentée (AR) et [VR] stéréoscopiques », explique le dernier article de l’équipe sur le sujet. « Notre travail s’exécute en temps réel sur un GPU grand public ( unité de traitement graphique ) et 5 FPS [images par seconde] sur un iPhone 13 Pro… des performances mobiles en temps réel prometteuses dans la future génération AR/VR casques et lunettes.
La dernière étude est publiée dans Light: Science & Applications .