Según un estudio de la Escuela de Ingeniería NYU Tandon, un nuevo enfoque para la transmisión de la tecnología puede mejorar significativamente la forma en que los consumidores promueven la realidad virtual y el entorno de la realidad.
El 1 de abril de 2025, una investigación presentada en un artículo en la 16ª Conferencia del Sistema ACM Multimedia describe una forma de predecir directamente el contenido visual en el entorno 3D, lo que reduce los requisitos de ancho de banda en 7 veces mientras mantiene los estándares visuales.
Esta tecnología se está desarrollando con el apoyo financiero de la NYU Tandon National Science Foundation para llevar el video de la nube de puntos a la educación de la danza, que se puede organizar con directores de baile 3D en equipos estándar con necesidades de menor ancho de banda.
Departamento de Ingeniería Eléctrica e Informática (ECE) en Nueva York Tandon (ECE) y el Centro de Tecnología Avanzada de NYU Tandon (Catt) y NYU Wireless lideran el Centro de Tecnología Avanzada de NYU Tandon, abordando la facultad de la Facultad de la Facultad de la Facultad. “” La transmisión tradicional de video envía todo dentro de un marco. Este nuevo enfoque es como si sus ojos estuvieran alrededor de su habitación, solo toma medidas que está viendo “.
Esta tecnología identifica el desafío “” “” “FOV)” para las experiencias profundas. Las aplicaciones AR/VR existentes exigen altos anchos de banda: un video de nube de puntos (que ofrece escenas 3D como puntos de datos de recopilación en el espacio), que contiene un video opinático de 120 megadáculos. Es 10 veces más alto.
A diferencia del enfoque tradicional que primero predice dónde aparecerá el usuario y luego calcule lo que parece, este nuevo método predice directamente el contenido predicho del contenido en la escena 3D. Al evitar estos dos pasos, el punto de vista reduce la acumulación de error y mejora la precisión de la predicción.
Este sistema divide el espacio 3D en “celdas” y considera cada celda como un nodo en la red de gráficos. Utiliza una red neuronal gráfica basada en el transformador para lograr relaciones locales entre las células vecinas y analizar repetidamente cómo analizar las redes nerviosas para analizar cómo desarrollar precisión con el tiempo.
Para las experiencias de realidad virtual pregrabadas, el sistema puede predecir qué se verá de 2 a 5 segundos para el usuario, una mejora importante en comparación con los sistemas anteriores que pueden predecir una sección de un usuario tras otro.
“Lo que hace que este trabajo sea particularmente interesante es el horizonte del tiempo”, dijo Liu. “El sistema anterior puede predecir lo que el usuario verá una parte de un segundo. Este equipo lo ha expandido”.
Desde el punto de vista del equipo de investigación, los errores de predicción se reducen en un 50 % en comparación con los métodos actuales de predicciones a largo plazo, mientras que los videos de nubes de puntos con 1 millón de puntos también mantienen el rendimiento del tiempo real de más de 30 segundos.
Esto responde más a los consumidores, con un bajo uso de datos, mientras que los desarrolladores pueden crear un entorno más complejo sin la necesidad de contactos de Internet ultra rápido.
“Estamos viendo una transferencia donde AR/VR se está moviendo de aplicaciones especiales a las herramientas de entretenimiento y productividad cotidiana de los usuarios”, dijo Liu. “Bankout ha sido una barrera. Esta investigación ayuda a eliminar el límite”.
Los investigadores emitieron su código para apoyar el desarrollo continuo. Su trabajo fue parcialmente apoyado por la subvención de la Fundación Nacional de Ciencias de los Estados Unidos (NSF) 2312839.
Además de Liu, los autores de este documento son elegidos en ingeniería eléctrica y Tongio Zong son candidatos a doctorado de NYU Tandon. Yew Ho, New Tin Tandon PhD. Candidatos en ingeniería eléctrica y electrónica; Y Yao Wang, profesor de NYU Tandon que está sentado en el Departamento de Ingeniería Médica de ECE, Biose, Catt y NYU Wireless.