Residencia en MolinoLab e Interactivas Fest 2025

Continuamos con el proceso de investigación de un dispositivo de nuerofeedback escénico para la creación de la performance Anima Machina, dentro del proyecto interdisciplinar Inner-Actions —dirigido por la artista y neurocientífica Lucía Callén (@luciasombras) y desarrollado por el colectivo Synaptic Body, junto al músico y compositor Alec Ilyine.
Después de varios meses de colaboración con el equipo científico de la Universidad Miguel Hernández (UMH) y el uso del dispositivo OpenBCI para registrar señales EEG durante prácticas de danza butoh, la artista se trasladó a MolinoLab, en Sancti Spiritus (Salamanca), para comenzar la transformación escénica de esas señales junto al equipo de tecnologías interactivas integrado por Fernando Fernández, Joaquín Ruiz (Sotavento) y Salomé Méndez.
Esta etapa también formó parte de las Ayudas a la creación contemporánea del Ayuntamiento de Madrid 2024–2025, que apoyan una investigación pionera sobre la conexión entre estados alterados de conciencia inducidos por la danza butoh y su proyección escénica a través de tecnología neurointeractiva.




Un cuerpo expandido: agencia sobre el sistema tecno-escénico
Durante esta segunda residencia, se trabajó en la traducción de datos cerebrales y movimiento en elementos escénicos reactivos como iluminación, visuales interactivos, música y sonificación, generando una performance sensible a los estados internos de la performer.
La residencia se desarrolló a lo largo de dos semanas, con una metodología práctica que incluyó:
- Evaluación de sistemas escénicos: luces inalámbricas, visuales 3D, nubes de puntos, entornos sonoros.
- Integración del dispositivo OpenBCI con TouchDesigner a través de protocolo OSC.
- Recepción de tres tipos de mensajes: bandas de frecuencia (Theta, Alpha, Beta…), datos del acelerómetro y señales filtradas.
- Extracción de patrones de atención, relajación e intensidad motriz.
- Mapeo consciente de señales específicas (como Alpha y Beta) sobre elementos escénicos: luces, splatters visuales y samplers sonoros.
El equipo comprobó que al vincular directamente las bandas cerebrales que mostraban mayor reactividad durante la danza —especialmente Alpha, Beta y Theta— con parámetros visuales y sonoros relevantes, emergía una auténtica sensación de agencia escénica. Es decir, tanto la performer como los espectadores podían percibir con claridad que los cambios en el estado interno o el movimiento del cuerpo afectaban el entorno escénico en tiempo real. Sin embargo, se hace necesario seguir investigando en la programación en Touchdesigner para adecuar y refinar los patrones de bandas y movimiento hacia el control de los elementos escénicos.
Interactivas Fest 2025 en MOLINOLAB
Esta etapa culminó con una presentación experimental en el Interactivas Fest 2025, donde se compartieron los primeros resultados de este trabajo con el público.
Tecnología utilizada
- Dispositivo EEG: OpenBCI con 8 canales
- Frecuencias extraídas: Delta, Theta, Alpha, Beta, Gamma
- Acelerómetro: 3DoF
- Software: TouchDesigner, procesamiento en tiempo real vía OSC
- Mapeo audiovisual: Visuales generativos (Gaussian splatter), iluminación LED inalámbrica, samplers con control de volumen y filtros
Este encuentro entre ciencia, arte y tecnología abre nuevas vías hacia un lenguaje escénico más íntimo y expandido, donde lo invisible —la mente en estado alterado— se convierte en forma, luz y sonido.
🎧 Más información y actualizaciones: @synaptic_body | @luciasombras
🔗 Esta fase se realiza con el apoyo de las Ayudas a la Creación Contemporánea del Ayuntamiento de Madrid (2024–2025) y en colaboración con el Instituto de Bioingeniería de la UMH, Neuroengin y Lintec y el colectivo MolinoLab

Podéis seguir los avances de esta investigación en nuestras redes sociales @luciasombras y @synaptic_body

