SINAPSIS
SOMOS EL RESULTADO DE NUESTRAS CONEXIONES
Una experiencia aumentada de danza y música dirigida por Andrea Arobba
Dirección: Andrea Arobba | Intérpretes creadores: Celia Hope Simpson, Noelia Hernández, Andrés Cuello, Juan Miguel Ibarlucea, Catalina Lans, Lucía Sin, Juan Chao, Nicolasa Manzo, Lucía Rubbo, Andrea Arobba. | Dirección musical: Juan Chao, Andrés Cuello. | Asesoría en neurociencia: Dra. Paula Pouso. (IIBCE) | Diseño de Iluminación: Santiago Rodriguez Tricot, Lucía Rubbo. | Diseño y realización de interfaces y recursos tecnológicos: Juan Pablo Colasso y Marco Colasso. | Diseño gráfico: Marco Tóxico. | Productora ejecutiva: Laura Gutman. | Productora de campo: Cecilia Lussheimer. | Prensa y difusión: Nicole Hareau. | Construcción de elementos escénicos: Nicolás Pequera, Sergio Amiel.
El proyecto se centra en el desarrollo de herramientas de interactividad mediante captura de movimiento del usuario, que se plantean inicialmente como parte de un proyecto escénico, pero que podrían contribuir al desarrollo de prototipos de producto en el futuro. El sistema incluye hardware de captura y software específico para diseñar, delimitar y dotar de funcionalidad espacios escénicos, que ademas de contribuir al proceso como herramienta expresiva, establecen vínculos según los cuales cualquier trozo de pared, piso o pieza de escenografía se convierte en una superficie interactiva. El proyecto, que vincula a GEN Centro de Artes y Ciencias con Head Brothers, tiene el potencial de generar y popularizar formas nuevas de interactuar con la tecnología. Tradicionalmente, el trabajo escénico ha estado clara y tajantemente dividido entre dos categorías: por una parte las labores que toman lugar en el escenario, y que se vinculan a la performance, y por otra las tareas que toman lugar fuera de escena, y que son vistas en general como recursos que potencian o facilitan lo escénico, pero que están desconectados materialmente de la performance. Esa división es en realidad arbitraria y mayormente logística, pues en realidad aspectos como la iluminación o la escenografía
son tan importantes en términos expresivos como la performance en sí, y en general están desvinculados de la gestión del intérprete por motivos estrictamente técnicos. El presente proyecto intenta vincular esos elementos expresivos al movimiento del intérprete, tendiendo un puente entre el diseño escénico y lo kinético, promoviendo de esa forma un modo más orgánico de concebir la escena. A través de hardware que detecta movimiento en tiempo real, y de un software que interpreta ese movimiento de un modo inteligente, el sistema que pretendemos investigar concibe el escenario y el espacio como una interfase, estableciendo interacciones que permiten generar de cada acción un correlato sonoro, lumínico, multimediático. El mismo tipo de recurso podría generar, en espacios públicos, experimentos sensoriales, colaboraciones espontáneas entre desconocidos y descubrimientos expresivos. La idea es producir una plataforma customizable, escalable, que sirva como puntapié inicial para un nuevo tipo de interactividad, en la que la interfase sea la realidad misma, en vez de un aparato.
Para el control de la obra sinapsis utilizamos 10 smartphones escondidos en los cuerpos de los bailarines, para los cuales se implementa un
sistema de captura de datos en tiempo real, obteniendo así posición relativa, aceleración y posición touch en pantalla de los dispositivos. Este sistema de detección fue utilizado para controlar las visuales, la iluminación y los efectos sonoros de la obra. Se desarrolló un servidor a partir de Soundworks, un framework javascript dedicado a crear experiencias audiovisuales distribuidas en la web. Es muy interesante el potencial de este desarrollo, ya que con el sistema de red existente podemos lograr un límite teórico de 100 celulares que al mismo tiempo envían de forma independiente información de movimiento, a la vez que son capaces de recibir en sus pantallas colores, textos y reproducir sonidos, solo conectándose con un navegador web sin necesidad de descargar ninguna aplicación. Esto permitiría, por ejemplo, que el público en un simple paso conectándose a una red local sea quien controla la música, las luces y las visuales de una obra. Por otro lado se utilizó el recurso de microfonear la sala, para el analisis de las señales acústicas mapeadas al control de la iluminación, generación de visuales, y creación de ambientes sonoros reactivos al movimiento de los actores.
En la danza y otras artes escénicas, la concordancia entre movimiento y recursos lumínicos, sonoros o videísticos depende de la capacidad de los técnicos para acompasar la performance de un modo espontáneo y muy variable entre función y función. La investigación que desarrollamos ofrece una paleta de recursos para sincronizar todos los elementos técnicos a la performance, pues se cuantifica cada una de estas variables en función del movimiento de los protagonistas. La investigación incluyó la coordinación entre luces, proyectores, amplificadores, software específico y giróscopos para lograr niveles inusitados de acción concertada en un perfecto unísono. Lo más destacable del proceso es que se logró, en un tiempo relativamente breve, hacer que en una misma obra pudieran implementarse elementos de video, de audio y de iluminación, y corroborar que todos estos recursos lograban concitar en el público una reacción al principio llena de intriga y luego decididamente entusiasta, como si se enfrentara a un fenómeno casi mágico. La obra logró un nivel inusitado de involucramiento por parte del público, y este entusiasmo se reflejó en el hecho de que en las siete funciones ofrecidas se logró una sala llena. Definitivamente habrá instancias futuras para este modelo de interactividad, que tiene aún mucho potencial por explorarse.
LINKS RELACIONADOS