Daniel Marino
Brayam Lazares
Este proyecto explora el potencial de la interfaz cerebro-computadora (BCI) aplicada a las artes escénicas. Al utilizar el electroencefalograma (EEG), una tecnología que mide la actividad eléctrica del cerebro, buscamos crear un nuevo canal de expresión para los artistas. La propuesta principal es que la iluminación escénica deje de ser una herramienta preprogramada y se convierta en el reflejo directo de las emociones del artista. De esta forma, lo que antes era invisible —la concentración, la calma o el estrés— se exterioriza y se convierte en una manifestación tangible de luz, creando una conexión más profunda y empática con el público.
El primer borrador de este proyecto lo tenemos en el video que muestra como la intensidad de una luminaria responde a la lectura GSR (respuesta galvánica de la piel) del usuario.
10 de marzo, 2026.
Mediante un ecosistema de red local, hemos establecido un flujo de datos que permite la comunicación en tiempo real entre el cerebro y la consola de iluminación:
Usamos EmotivPRO para la detección de datos EEG.
Utilizando NodeRED, enviamos los datos vía TCP desde la estación de captura a una segunda unidad de procesamiento.
Utilizando Node-RED y CHataigne, filtramos y mapeamos las señales convirtiéndolas en comandos MIDI.
A través de LoopMIDI, las señales se convierten en comandos de nota y velocidad (Velocity) que controlan directamente los faders de los ejecutores en grandMA2 onPC.
08 de abril 2026
Trabajamos en refinar código en NodeRed con dos objetivos. El primero es incorporar las métricas de rendimiento a los datos reflejados en el escenario. El segundo es hacer que la variación de los parámetros en escena sea una curva contínua y no picos o puntos.
Por otro lado, avanzamos en la construcción de un escenario virtual que permita poner a prueba las conexiones que vamos elaborando.
22 de abril 2026
Una vez conectada la diadema con la consola de control de luces, asignamos las funciones a cada uno de los parámetros monitoreados. De esta manera, las frecuencias de onda (Alpha, Beta, Gamma y Theta) controlarán la composición de cada escena y, por otro lado, la métrica de interés y enfoque controlará la duración.
Finalizamos la construcción del escenario de simulación para probar no solo las conexiones sino, también el resultado estético.