xPanopticum

Experiencia Escénica Interactiva en Realidad Extendida

Temática

El proyecto xPanopticum plantea como objetivo diseñar, explorar e implementar un escenario virtual interactivo para diversas expresiones de las artes escénicas. Tras la investigación de aspectos tanto teóricos como prácticos y técnicos, se filma con una disposición específica de cámara especializada acciones, espacios y creaciones artísticas de diversa índole, y este material será integrado en una presencia web de Realidad Virtual dirigida al uso interactivo con smartphones. El proyecto contempla por lo tanto el estudio de formas alternas de presentación y escenificación, de especial relevancia en el contexto actual de virtualización, a la vez que implica el aprovechamiento de las innovaciones tecnológicas más actuales.

El producto de este proyecto es, aparte de la difusión de resultados en el entorno académico y publicaciones relacionadas, elaborar un dispositivo de registro (tanto físico en forma de equipo como teórico en forma de conocimiento de uso) y plataformas de visualización que permitan a los estudiantes y docentes de las diversas carreras de diversas facultades registrar trabajos existentes y sobre todo crear obras para las modalidades actuales de creación, visualización y difusión digital

Miembros

Colaboradores

Documentación

Propiocepción con disparidad

Parte del proyecto fue la investigación de propiocepción mediada. Dicha investigación se enfocó en analizar la autopercepción física y visual, y la reacción a disparidades espacio-temporales en situaciones híbridas físico-mediales. La constelación experimental se basó en el uso de una cámara 360 (QooCam 8k Enterprise) y la transmisión en vivo de su registro a cascos tipo cardboard de los participantes. Se optó por esta solución para permitir el uso de equipo de bajo presupuesto, como celulares. Se trabajó con 5 cascos de plástico tipo Cardboard donados por la docente de la New York University, Regine Gilbert

Después de la experiencia, se pidió a los participantes responder una encuesta. Dicha encuesta está basada en los standards para encuestas de Embodiment desarrollados por Mar Gonzalez-Franco et altri, como por ejemplo en Avatar Embodiment. A Standardized Questionnaire. Se combinó dicho cuestionario con lo aprendido en la participación en la investigación del grupo Virtual Experience Interaction Lab (VEIL).

Entre los hallazgos se observó la diferencia de capacidad de adaptación a la disparidad espacial y temporal, la cual dependía no tanto de la experiencia física del participante (se trabajó sobre todo con estudiantes y profesionales de teatro y danza), sino de su capacidad de predicción espacio-temporal.

Percepción espacial auditiva mediada

Otra parte de la investigación exploró la capacidad del medio de transmitir ubicaciones espaciales. Para ello se usó un micrófono ambisónico (Zoom H3-VR) y audífonos de alta resolución (Sennheiser HD280 pro). El participante con los audífonos sostenía el micrófono con los ojos cerrados, y tenía que indicar la posición de los sonidos producidos por otra persona. El hallazgo principal fue que, si bien influye la praxis acústica del participante, la detección de ubicación es más exacta si se realiza una introducción, es decir, una primera fase en la cual la otra persona va variando sus posiciones indicándolas verbalmente.

Propiocepción desligada

En una primera fase, se introdujo a participantes a la experiencia de Realidad Virtual mediante el recorrido de espacios virtuales en un casco de Realidad Virtual. Se usó un Oculus Quest 2 y espacios de los aplicativos Mozilla Hubs y de Spatial. Uno de los primeros hallazgos significativos fue notar que personas con entrenamiento físico, como performers de danza y teatro, tienden a explorar situaciones no habituales para personas sin dicho entrenamiento: se tiran al piso para explorar la relación visual con el suelo dentro de la simulación, o buscan explorar rápidamente los bordes de seguridad (Guardian) integrados en los dispositivos para proteger de colisiones. 

Normas éticas y prácticas de investigación

En las sesiones de experimentación física siempre se incluyó a personas que cuidaban que quienes tenían puesto cascos no se chocasen, cayesen o hiciesen algún tipo de daño. Esto resulta indispensable.
En las encuestas y entrevistas y el resto de la investigación se siguió los lineamientos de ética de la investigación de la PUCP.

Colaboraciones

Agradecemos el apoyo de David Chavez, director del CETAM, por brindar desde un inicio apoyo de diversa índole, como por ejemplo el espacio Aula 1 y luego en OpenPUCP. 

Otra ayuda invaluable fue la de Raúl del Aguila, que puso a disposición el espacio y equipo técnico & humano del Centro de Creación KRACC en San Borja.

Hemos tenido el gusto de cooperar con otras instituciones y personas que han brindado importante apoyo a la investigación de xPanópticum, y del laboratorio en general. Como por ejemplo Regine Gilbert de la University of New York, Mariano Capone de Territorio Digital Argentina, Gustavo Montes de la Universidad Rey Juan Carlos, Rebecca Weber y su equipo de la University of Auckland, Jeremy Nelson de la University of Auckland, y Christian Beyle de la Universidad Católica de Temuco.

Agradecemos a la Dirección de Fomento de la Investigación de la PUCP por la subvención PI0767 ganada en el CAP de Investigación-Creación 2021, la cual dio inicio a este trabajo. Agradecemos también al equipo de la OGP por la incansable labor de apoyo, y a todos los trabajadores administrativos, docentes y estudiantes que han colaborado con este proyecto.
La investigación no ha terminado, lo arriba mostrado solo representa un disparo de partida, pues ha abierto muchas puertas por dónde seguir hurgando.