El montaje es una disciplina que ha logrado crear unidades de significado, podemos entender sus códigos y crear composiciones complejas a nivel narrativo.  Si nos planteamos el código como instrumento de montaje encontramos que usando la programación se pueden realizar montajes en tiempo real que aunque están preconcebidos en las reglas de un código generan una multitud de efectos y situaciones probablemente jamás realizados en el montaje clásico.

Lo interesante de esta situación es destacar que el montaje se ha construido cuando los efectos producto de la experimentación toman significado.  Siendo más específico podemos tomar el caso del “fade to white”, comúnmente usado para indicar un sueño o recuerdo.  Es obvio que antes de tomar este significado en la conciencia colectiva estaba apilado junto a cientos de otros efectos de la imagen y lo que ahora nos importa de él no es tanto su logro técnico como el significado que ha adquirido posteriormente.

La experimentación es un proceso incesante, pero también limitado a la motivación de los artistas, cuando algo es novedoso todos participan de su evolución hasta que poco a poco va cayendo en la monotonía.  Por ello se requieren siempre nuevas formas de trabajar que alimenten la máquina hambrienta de símbolos y recursos que luego desechará rápidamente.

El montaje dentro del lenguaje del cine ha ido acelerándose poco a poco con el paso del tiempo, en “La película que no se ve” de Jean-Claude Carrière se trata sobre el continuo incremento de velocidad de las imágenes, un plano que antes podía durar 30 segundos y mostrar una acción ahora es reemplazado por 3, 4 ó 5 tomas que aceleran el ritmo y nos mantienen “atentos”, para que no cambiemos de canal durante los anuncios, para que no nos aburramos.

Pero además de la velocidad, el montaje también evoluciona en cuanto a los mecanismos de proyección, la forma en que las audiencias entienden las imágenes y el tipo de historias o eventos no-narrativos que pueden ser del uso común de los medios futuros.

La video instalación “Variable Montage” de Marc Lafia y Didi Fire toma 27 fotogramas de un filme ruso, y los ordena en 5 segmentos que se van permutando de manera variable en tres ventanas dentro del mismo monitor.

El código está creado en MAX/MSP6 y además de generar una proyección variable en tiempo y orden de las imágenes, asocia cada uno de los cinco segmentos con una pequeña frase de la Novena Sinfonía de Mahler y los altera en tono, frecuencia, alternancia y superposición de acuerdo al ordenamiento y velocidad de las imágenes.

Max es un entorno de desarrollo gráfico para música y multimedia. El programa ha sido usado durante más de quince años por compositores, artistas y diseñadores de programas interesados en la creación de programas interactivos.  Originalmente creado por Miller S. Puckette para el IRCAM ahora es comercializado y soportado por Cycling 74.

Max es bastante modular, y la mayoría de las rutinas forman parte de una biblioteca compartida. La IPA (Interfaz de Programación de Aplicaciones) permite el desarrollo de nuevas rutinas (llamadas «objetos externos») por terceras personas. Por consecuencia, muchos de los usuarios de Max son programadores no afiliados a Cycling ’74 que mejoran el programa, creándole extensiones comerciales y no comerciales. Debido a su diseño extensible e interfaz gráfica (que de manera novedosa representa la estructura del programa y el IGU presentadas simultáneamente al usuario), Max es considerado por muchos como la lengua franca para el desarrollo de programas de música interactiva.

Otra pieza interesante desde la experimentación “Soft Cinema” Lev Manovich y Andreas Kratky, en ella lo que se visualiza  generado por la navegación de una base de datos sobre datos en continua permutación y clasificación. El software edita películas en tiempo real eligiendo elementos de la base de datos (etiquetados previamente) y usando sistemas de reglas predefinidos por los autores.

lev manovich

lev manovich

Lev Manovich, »Soft Cinema«, 2002
Ausstellung »Future Cinema«, ZKM, 2003 | Fotograf: Andreas Kratky | © Lev Manovich

Soft Cinema ilustra bien los primeros pasos de la experimentación donde el objetivo era un filme que al igual que el código pudiese correr infinitamente sin interrupción, combinando segmentos de películas sin mostrar jamás las mismas combinaciones de secuencias, disposición de las imágenes en la pantalla o narrativas.
Hoy una de las cosas importantes que se pretenden es lograr un sentido  en las piezas que básicamente proponen “narrativas nunca antes vistas”, pues esto no es creíble.  El código hasta ahora no se explica por sí mismo al punto de haber creado ya las unidades de significado que identifiquen un lenguaje fílmico que traspase los recursos de la repetición y  la aleatoriedad para significar algo por sí mismo.

En Sabios Animales Nostálgicos es el performer quien establece un diálogo en tiempo real con un dispositivo de programación (patch), para crear un espectáculo de cinema. La obra cuenta a manera de pillow books varias historias de mujeres en relación a los núcleos de ansiedad, spleen, y el rompimiento de la unidad interior de las protagonistas.

La experiencia visual consiste en un tríptico de videos construidos a partir de fragmentos relacionados con las ideas de tiempo y espacialidad del relato cinematográfico, buscando desagregar el punto de vista y temporalidad de los elementos de cada escena.

carlos talaga performer artist

3D Artist: Christiano Mahler

El tono es logrado en la programación de una herramienta que se sirve de la base de datos para generar símbolos y un discurso de lo aleatorio y narrativa interactiva, el performer utiliza una herramienta programada para estimular el discurso entre la base de datos y su presencia como “narrador”, así inicia un proceso de generación aleatoria de videos en dos de las pantallas, mientras la tercera es controlada manualmente, para realizar un montaje en tiempo real, una experiencia narrativa-sensible única en cada presentación, por cuanto cada combinación será irrepetible.

Cada relato es una pieza de video fragmentada en decenas de segmentos, cada uno con una capacidad simbólica.  De esta manera el dispositivo digital se alimenta de más de quinientos fragmentos de video que se mezclan en tres pantallas, las dos extremas controladas por el patch y la central, que es el eje de la mirada, controlada por el performer.
En el diagrama podemos ver el flujo de los datos del patch en relación al performer.  Un estímulo externo genera dos imágenes en el extremo, procedentes de la misma selección de videos pero programadas para no coincidir, y el performer elige de un conjunto propio la imagen que aparecerá en el centro y dará sentido al relato que se está presentando al público.