iReal 2.0: Interfaces en ambientes de realidad virtual
View/ Open
Date
2014Author
Monge-Fallas, Jorge
Hernández-Castro, Franklin
Segura-Solís, David
Metadata
Show full item recordAbstract
El objetivo de iReal 2.0 era desarrollar una herramienta que permitiera visualizar y analizar los datos
generados por los sensores del proyecto eBridge en el laboratorio de visualización inmersiva del
programa de eScience. Para el proyecto se tenía que definir una estrategia sobre el uso y el desarrollo
de los elementos de la interface, así como el software y hardware necesarios para proyectar, en tiempo
real, ambientes tridimensionales en los que se pueda experimentar fenómenos espaciales de forma que
el usuario esté inmerso en el ambiente, ya sea física o virtualmente.
Estas interfaces tridimensionales ya fueron exploradas inicialmente por varios integrantes del grupo
eScience (incluyendo a los investigadores Franklin Hernández y José Castro), quienes visitaron en
marzo del 2010 el encuentro PRAGMA 18 en San Diego California. En esta visita se pudo observar el
estado del arte en varios países de los más avanzados en esta área, entre ellos Estados Unidos,
Canadá, Japón, India y Corea.
Estas interfaces fueron investigadas y se desarrollaron varias iniciativas en el proyecto iReal 1.0., lo que
claramente fue la base para el desarrollo de iReal 2.0.
El proyecto iReal ha ido consolidando el laboratorio de visualización que se había planteado años atrás.
El desafío consistía en la visualización de información (en alta resolución) en forma de ambientes
tridimensionales virtuales y aun más retador: la manipulación de esos sistemas. Este último es el objetivo
fundamental alanzado en iReal 2.0
Métodos: uno de los aspectos importantes en este proyecto era contar con una configuración adecuada
del sistema de visualización inmersiva “cave”. Esta configuración adecuada a la tecnología elegida en su
momento (Alioscopy), nos permitió tener un sistema más robusto y estable, de tal forma que centramos
nuestros esfuerzos en dos líneas: desarrollo de contenido 3D Aliocopy (autoestereoscopico lenticular) y
el desarrollo de la interface.
En cuanto al contenido para visualizar en el “cave”, primero se hizo la configuración del cluster,
poniéndose a funcionar el sistema completo, para posteriormente iniciar pruebas en el desarrollo de
contenido 3D de Alioscopy. En este caso, este fue el mayor desafío y el principal aporte de este proyecto.
La configuración final para controlar, vía software el clúster del “cave”, se realizó a través de la
implementación del framework de Realidad Virtual “CalVR”, un sistema desarrollado por la Universidad
de California, San Diego. Proyecto que inicio en el año 2010 y el cual ha sido pionero en el campo de la
investigación visual (https://ivl.calit2.net/wiki/index.php/CalVR).
Para la etapa relacionada con la interface, se utilizaron las herramientas de desarrollo que utilizan las
aplicaciones para OS X sistema operativo de Apple y el iOS 7 sistema operativo de las iPads, iPods y
iPhone. Esta decisión se basó principalmente en el hecho de que este sistema es el más maduro del
mercado en el uso de gestos y por tanto la parte de la investigación que se desarrolló sobre estos
sistemas touchscreens se vio beneficiada por esta condición. El grupo de datos base para el desarrollo
de la interface fue el proyecto de eBridge.
pág. !5 de !48
Resultados: A nivel de hardware, se logró una configuración estable del laboratorio de visualización
científica ”cave”, con 6 nodos que cuentan con GPUs de alto desempeño, con comunicación de red
basada en fibra óptica. Por el lado del software se logró implementar el framework de visualización
inmersiva CalVR, el cual nos permite por medio de algunos parámetros, definir las configuraciones para
la autoestereoscopia que requiere los monitores Alioscopy.
A nivel de interface, se logró desarrollar una aplicación para iPhone y iPad para controlar el
“cave” (disponible en App Store de Apple llamada iReal), basada en los requerimientos de visualización
del proyecto eBridge. Además la aplicación incorpora la funcionalidad de comunicarse con el “cave” a
través de un socket de forma inalámbrica.
A nivel del clúster y el desarrollo de contenido 3D, se logró sistematizar el desarrollo y despliegue de
contenido Alioscopy en el “cave” que nos permitirá diversificar las aplicaciones de este sistema de
visualización.
Además, paralelamente se a instalado una nueva configuración para el control del TDW (sistema normal
de visualización) a través de SAGE (“Scalable Adaptive Graphics Environment”) y OmegaLib. La idea de
este trabajo en paralelo es contar con un sistema de visualización más robusto y complementario.
El SAGE es una arquitectura de transmisión de gráficos que habilita un acceso interactivo, una
visualización y la capacidad de compartir gran cantidad de datos, en una variedad amplia de
resoluciones, formatos, fuentes, con mucha facilidad de uso, permitiendo hacer pruebas de concepto con
el objetivo de llevar todo el sistema a una nueva configuración del “cave”.
OmegaLib es un Framework de aplicaciones de multivista para ambientes de realidad híbrida (HREs),
que consiste en una combinación de ambientes immersivos, con mosaicos de monitores de alta
resolución. Un HREs logra crear un ambiente 2D/3D transparente que soporta un análisis rico en
información, como también una simulación en realidad virtual.
Conclusión: El objetivo de desarrollar una herramienta que permitiera visualizar y analizar los datos
generados por los sensores del proyecto eBridge en el “cave” fue satisfactoriamente alcanzado.
Description
Proyecto de Investigación. Instituto Tecnológico de Costa Rica. Escuela de Matemática, Escuela de Diseño Industrial, 2014