Glassless 3D au MIT

Glassless 3D au MIT

Lunettes-3d-cassées.jpgPuisque la 3D a en quelque sorte tombé au bord du chemin Dernièrement, les fabricants recherchent un moyen de résoudre l'un des plus gros problèmes auxquels la technologie a été confrontée: le besoin de porter des lunettes. Les chercheurs du MIT ont maintenant mis au point un nouveau processus de visualisation en 3D sans besoin de lunettes . Sera-t-il accroché? Le temps nous le dira-









comment bloquer les appels indésirables sur une ligne fixe gratuitement

De Nouvelles du MIT
Au cours des trois dernières années, les chercheurs du groupe Camera Culture du MIT Media Lab ont constamment affiné la conception d'un écran vidéo 3D sans lunettes, multiperspectif, qui, espèrent-ils, pourrait fournir une alternative moins chère et plus pratique à la vidéo holographique. à court terme.
Maintenant, ils ont conçu un projecteur qui exploite la même technologie, qu'ils dévoileront au Siggraph de cette année, la grande conférence de l'infographie. Le projecteur peut également améliorer la résolution et le contraste de la vidéo conventionnelle, ce qui pourrait en faire une technologie de transition intéressante à mesure que les producteurs de contenu apprennent progressivement à exploiter le potentiel de la 3D multiperspective.
La 3D multiperspective diffère de la 3D stéréoscopique désormais courante dans les cinémas en ce que les objets représentés révèlent de nouvelles perspectives au fur et à mesure que le spectateur se déplace autour d'eux, tout comme le feraient des objets réels. Cela signifie qu'il pourrait avoir des applications dans des domaines tels que la conception collaborative et l'imagerie médicale, ainsi que le divertissement.
Les chercheurs du MIT - le chercheur Gordon Wetzstein, l'étudiant diplômé Matthew Hirsch et Ramesh Raskar, professeur agrégé en développement de carrière NEC en arts et sciences médiatiques et chef du groupe Camera Culture - ont construit un prototype de leur système en utilisant des composants standard. . Le cœur du projecteur est une paire de modulateurs à cristaux liquides - qui sont comme de minuscules écrans à cristaux liquides (LCD) - positionnés entre la source lumineuse et l'objectif. Les motifs de lumière et d'obscurité sur le premier modulateur le transforment efficacement en une banque d'émetteurs de lumière légèrement inclinés - c'est-à-dire que la lumière qui le traverse n'atteint le deuxième modulateur que sous des angles particuliers. Les combinaisons des motifs affichés par les deux modulateurs garantissent ainsi que le spectateur verra des images légèrement différentes sous des angles différents.
Les chercheurs ont également construit un prototype d'un nouveau type d'écran qui élargit l'angle sous lequel les images de leur projecteur peuvent être visualisées. L'écran combine deux lentilles lenticulaires - le type de feuilles transparentes striées utilisées pour créer des effets 3D bruts dans, par exemple, de vieux livres pour enfants.





Le groupe Camera Culture du MIT Media Lab introduit une nouvelle approche de la 3D sans lunettes à perspectives multiples.
Exploiter la redondance
Pour chaque image de la vidéo, chaque modulateur affiche six modèles différents, qui ensemble produisent huit angles de vision différents: À des taux d'affichage suffisamment élevés, le système visuel humain combinera automatiquement les informations de différentes images. Les modulateurs peuvent actualiser leurs modèles à 240 hertz, ou 240 fois par seconde, de sorte que même à six modèles par image, le système pourrait lire la vidéo à une fréquence de 40 hertz, ce qui, bien qu'en dessous du taux de rafraîchissement commun sur les téléviseurs d'aujourd'hui, est toujours supérieur à la norme de 24 images par seconde dans le film.
Avec la technologie qui a historiquement été utilisée pour produire des images 3D sans lunettes - connues sous le nom de barrière de parallaxe - projeter simultanément huit angles de vision différents signifierait attribuer à chaque angle un huitième de la lumière émise par le projecteur, ce qui donnerait un film sombre. Mais comme les moniteurs prototypes des chercheurs, le projecteur profite du fait que, lorsque vous vous déplacez autour d'un objet, la plupart des changements visuels se produisent sur les bords. Si, par exemple, vous regardiez une boîte aux lettres bleue en passant devant, d'une étape à l'autre, une grande partie de votre champ visuel serait occupée par un bleu à peu près de la même nuance, même si différents objets entraient dans vue derrière elle.
Algorithmiquement, la clé du système des chercheurs est une technique permettant de calculer la quantité d'informations pouvant être conservées entre les angles de vision et la quantité qui doit être modifiée. Préserver autant d'informations que possible permet au projecteur de produire une image plus lumineuse. L'ensemble résultant d'angles et d'intensités de lumière doit alors être codé dans les motifs affichés par les modulateurs. C'est un ordre de calcul élevé, mais en adaptant leur algorithme à l'architecture des unités de traitement graphique conçues pour les jeux vidéo, les chercheurs du MIT l'ont fait fonctionner presque en temps réel. Leur système peut recevoir des données sous la forme de huit images par image de vidéo et les traduire en modèles de modulateur avec très peu de retard.
Technologie de pont
Faire passer la lumière à travers deux modulateurs peut également augmenter le contraste de la vidéo 2D ordinaire. L'un des problèmes des écrans LCD est qu'ils n'activent pas le «vrai noir»: un peu de lumière fuit toujours même dans les zones les plus sombres de l'écran. «Normalement, vous avez un contraste de, disons, des valeurs comprises entre 0 et 1», explique Wetzstein. «C'est le contraste complet, mais en pratique, tous les modulateurs ont quelque chose comme 0,1 à 1. Vous obtenez donc ce« niveau de noir ». Mais si vous multipliez deux optiquement ensemble, le niveau de noir descend à 0,01. Si vous montrez du noir sur l'un, qui est de 10 pour cent, et du noir sur l'autre, qui est également de 10 pour cent, ce que vous obtenez est de 1 pour cent. Donc c'est beaucoup plus noir.
De la même manière, explique Hirsch, si les motifs affichés sur les modulateurs sont légèrement décalés les uns des autres, la lumière qui les traverse interférera avec elle-même de manière à augmenter la résolution des images résultantes. Encore une fois, les chercheurs ont développé un algorithme qui peut calculer ces modèles à la volée.
Alors que les créateurs de contenu passent à la vidéo dite `` quad HD '', avec une résolution quatre fois supérieure à la vidéo haute définition actuelle, la combinaison d'un contraste plus élevé et d'une résolution plus élevée pourrait rendre une version commerciale de la technologie des chercheurs attrayante pour les propriétaires de salles de cinéma, ce qui à son tour, pourrait faciliter l’adoption de la 3D multiperspective. `` Une chose que vous pourriez faire - et c'est ce que les fabricants de projecteurs ont fait dans un passé récent - est de prendre quatre modulateurs 1080p et de les mettre les uns à côté des autres et de construire des optiques très compliquées pour les carreler tous de manière transparente, puis obtenir une bien meilleure lentille parce que vous devez projeter un endroit beaucoup plus petit et regrouper tout cela ensemble », explique Hirsch. `` Nous disons que vous pouvez prendre deux modulateurs 1080p, les coller l'un après l'autre dans votre projecteur, puis prendre votre même vieil objectif 1080p et le projeter à travers et utiliser cet algorithme logiciel, et vous vous retrouvez avec une image 4k. Mais pas seulement cela, le contraste est encore plus élevé.
Diffusion de pixels
Oliver Cossairt, professeur adjoint de génie électrique et d'informatique à l'Université Northwestern, a déjà travaillé pour une entreprise qui tentait de commercialiser des projecteurs 3D sans lunettes. «Ce que je considère comme la nouveauté de l'approche [des chercheurs du MIT] implique deux choses», dit Cossairt. Le premier, dit-il, est de «jouer avec l'idée de la barrière de parallaxe pour que vous puissiez faire en sorte que (a) ne bloque pas autant de lumière et (b) obtienne une meilleure résolution.
Le second, dit-il, est l'écran prototype. «Il y a cet invariant des systèmes optiques qui dit que si vous prenez la surface du plan et l'angle solide de la lumière sortant de ce plan, c'est fixe», dit Cossairt. «Cela signifie que si vous prenez la taille de l'image 3D et que vous l'étirez pour qu'elle soit, disons, 10 fois plus grande, alors le champ de vision diminuera d'un facteur 10. C'est ce que nous avons rencontré. Nous ne pouvions pas trouver un moyen de contourner cela.
«Ils ont créé un écran qui, au lieu d'étirer l'image - ce que fait l'optique de projection - éloignait essentiellement les pixels les uns des autres», poursuit Cossairt. «Cela leur a permis de briser cette invariance.

meilleur client ftp gratuit pour mac



Ressources additionnelles