Herramientas de software para la creación de música electroacústica

Anuncio
Herramientas de software para la creación de música
electroacústica
JESÚS GERSOL ORTEGA1
La evolución de las herramientas de software para la creación de música
electroacústica ha estado condicionada por diversos factores desde la aparición de la
informática. El factor que más ha influido en la industria del software y el hardware ha
sido la creación de la interfaz gráfica (GUI, Graphical User Interface), que ha permitido hacer los computadores más accesibles al usuario no especializado. Mediante la
GUI el usuario puede interactuar en un entorno visual sencillo basado en gráficos y
textos, permitiendo así una comunicación menos compleja con el sistema operativo de
un computador.
Gracias al impacto de los entornos gráficos, el desarrollo de software y hardware está viviendo un desarrollo exponencial que, por supuesto, también se ha hecho
extensivo a la creación musical, hasta el punto que se ha hecho posible que el músico
pueda crear, grabar y editar audio digital con herramientas sencillas de manejar y, sobre todo, asequibles en cuanto a su costo económico. ¿Qué herramientas son esas? A
continuación nos referiremos a aquellas que permiten acometer experiencias electroacústicas de forma autónoma.
INTERFAZ DE AUDIO
La interfaz de audio es la intermediaria entre el computador y el intérprete o
compositor. Es una herramienta de hardware esencial para el proceso de creación
electroacústica. Conocida popularmente como tarjeta de sonido, se encarga de traducir al lenguaje del computador (código binario) las vibraciones que recibe por medio de
los diferentes receptores de audio, como micrófonos, pastillas de una guitarra o instrumentos de línea como un teclado. Esta traducción se hace a través de un conversor
analógico-digital y digital-analógico (conversor AD/DA), que recibe la información desde los receptores de audio para procesarla y convertirla al lenguaje digital que interpretan los computadores (AD), o, en sentido inverso, convertir la señal digital en analógica
(DA).
En el mercado existen infinidad de marcas y modelos de interfaces de audio o
tarjetas de sonido: Digidesing, Tascam, Roland, Yamaha, Presonus, Emu, Rme, etc…
1
Jesús Gersol Ortega es Titulado Superior en Composición por el Conservatorio Superior de
Música “Victoria Eugenia” de Granada.
1
EDITORES DE AUDIO
En el caso de la edición de material ya grabado o sintetizado, la digitalización
conlleva enormes ventajas frente a la edición tradicional sobre cinta magnética: ahorro
de tiempo en la edición, edición no destructiva (se pueden recuperar versiones anteriores), corta y pega con una precisión infinitamente mayor, zona de trabajo móvil, etc.
La desventaja más importante que poseen estas herramientas respecto a las
tradicionales, es la pérdida, en el proceso de digitalización, de la calidez y del color del
sonido de los sistemas analógicos, como cintas, sintetizadores analógicos, pedales de
modulación de sonido de transistores, etc. No obstante, hay que tener en cuenta que
la tecnología digital de audio se encuentra en un estadio inicial de desarrollo y que con
el paso conseguirá igualar y mejorar con creces a los sistemas analógicos.
Para un compositor de música electroacústica es indispensable el conocimiento de los editores de audio. De hecho, el uso de editores de audio sigue siendo la
piedra de toque en el mundo del audio digital.
Existen varios tipos de edición, como son la edición en muestras por segundo
(44100 Hz, 48000 Hz, 96000 hz, etc.), la edición en unidad de tiempo (compases, negra, corchea…), o la edición en fotogramas por segundo.
Los editores de audio profesional modernos incorporan edición multipista, lo
que permite la grabación y mezcla de tantas pistas de audio como pueda procesar la
computadora. Estas pistas pueden ser editadas posteriormente y se les puede añadir
efectos, ecualizar y someter a tantos procesos como requiera la obra que se esté
componiendo.
Desde un punto de vista creativo cumple con la mayoría de las necesidades de
edición que solicita un compositor electroacústico, pero carece de interactividad. El
resultado final del trabajo con el editor siempre será una cinta que se reproducirá de la
misma forma, y nunca interactuará con un intérprete y mucho menos con el oyente.
En el mercado podemos encontrar una gran variedad de editores de audio para
cualquier sistema informático. Entre los más destacados y conocidos encontramos
Adobe Audition, Adobe Soundbooth, Soundtrack Pro (Apple), Sony Acid Pro, Sony
Sound Forge, Record (Propellerhead) WaveLab (Steinberg). En el mundo del software
libre o gratuito podemos encontrar numerosos editores de audio de calidad: Audacity y
Free Audio Editor, entre otros.
LOS SECUENCIADORES
Son, sin duda, la herramienta más extendida para la creación de música. Su
uso no se centra solamente en la grabación y edición de audio, sino que con ellos se
alcanzan las producciones más ambiciosas que se puedan imaginar, y sobre todo,
desde una estación de trabajo tan simple como un computador o un teclado Workstation entre otros. En el mercado podemos encontrar desde secuenciadores gratuitos de
software libre, hasta grandes estaciones de trabajo de miles de euros utilizadas en los
estudios de doblaje.
Un secuenciador es un dispositivo electrónico físico (analógico) o una aplicación informática (digital) que permite programar, grabar y reproducir eventos musicales de forma secuencial. Todo ello desde una interfaz de control físico o lógico, que
2
además, permite la conexión de instrumentos electrónicos a través del estándar de
comunicación MIDI.
SECUENCIADORES ANALÓGICOS
Los primeros secuenciadores electrónicos surgen en la década de los 70. Al
igual que los sintetizadores, eran analógicos, con una interfaz llamada CV/Gate o control por voltaje. Consistía en enviar impulsos de corriente eléctrica continua con un
nivel de tensión en función de la altura de la nota. Eran muy limitados y complejos de
programar. Solo permitían controlar un aparato a la vez y tenían muy pocos eventos
programables disponibles.
El secuenciador analógico se convirtió tanto en un instrumento de interpretación como en una herramienta de composición, a pesar de contar con un número limitado de pasos, a menudo 8 o 16.
Lo más interesante de estas secuencias analógicas con vista a la creación musical es que cada parámetro está “vivo” mientras se reproducen los pasos, lo cual
permite alterar las secuencias conforme progresa la música. Ésa es la clave para crear
resultados sorprendentes manipulando el sistema con ingenio y creatividad, y convirtiendo al secuenciador analógico en un instrumento de improvisación.
MIDI
MIDI son las siglas de la Interfaz Digital de Instrumentos Musicales. Se trata de
un protocolo de comunicación estándar que permite a los computadores, sintetizadores, secuenciadores, controladores y otros dispositivos musicales electrónicos comunicarse y compartir información para la generación de sonidos.
La aparición del sistema MIDI en 1983 y el avance de la tecnología digital en
materia musical supusieron una verdadera revolución al permitir controlar varios dispositivos a la vez, así como los parámetros que afectan a la reproducción del sonido
(volumen, aftertouch, panorama, modulación, etc.).
Hay que aclarar que el MIDI no transmite señales de audio, sino datos de eventos y mensajes de controladores que se pueden interpretar de manera arbitraria, de
acuerdo con la programación del dispositivo que los recibe. Digamos que un flujo de
datos MIDI es una especie de partitura que contiene los valores (en un rango de 0 a
127) de muchos parámetros como velocidad, pitch, expresión, portamento, etc. Esta
partitura es interpretada por un dispositivo para, por ejemplo, hacer sonar muestras de
instrumentos pregrabados o controlar de forma física dispositivos virtuales.
SECUENCIADORES DIGITALES
Tras la llegada del MIDI surgieron todo tipo de aplicaciones y actividades relacionadas con este protocolo. La secuenciación, como cabía esperar, fue la primera en
aparecer, y sigue siendo hoy día la más popular.
La década de los 80 fue muy importante para la producción de música y de
software en general. Comenzaron a surgir aplicaciones de software MIDI. Los primeros
secuenciadores fueron programados para las computadoras más populares del momento: Commodore C64, Sinclair ZX Spectrum y Apple II. Desde entonces la evolu-
3
ción tecnológica ha sido imparable.
El gran salto en la evolución de los secuenciadores de audio y MIDI se produjo
en 1996, cuando Steinberg lanzó Cubase VST. Se trata de una tecnología que permite
la ampliación del secuenciador principal con herramientas virtuales. De esta forma, se
puede sustituir el costoso hardware tradicional por sus análogos virtuales, obteniendo
así una única herramienta física (la computadora) de una potencia casi ilimitada para
la creación musical.
Desde entonces han surgido nuevos mercados y nuevas compañías dedicadas
al diseño de complementos VST, DX y RTAS para los diferentes secuenciadores. Encontramos instrumentos virtuales como pianos, baterías, cuerdas, y todo tipo de instrumentos que emulan a los reales; y también rack de efectos que emulan a los efectos originales, como la famosa reverb Lexicon.
La gama de posibilidades a las que podemos acceder gracias a estas tecnologías es inmensa. Podemos disponer desde un piano Yamaha perfectamente muestreado por capas, hasta una orquesta sinfónica muestreada instrumento por instrumento en diferentes articulaciones, matices, posiciones, etc. Y todo ello controlado desde
un computador y no necesariamente con un teclado MIDI.
La principal característica de cualquier secuenciador digital2 es la grabaciónreproducción multipista de audio y MIDI. De esta forma disponemos de la posibilidad
de grabar varias pistas de forma secuenciada y que éstas estén sincronizadas entre sí
como si se hubieran grabado a la vez. Además, permite la reproducción de las pistas
grabadas mientras se graban otras nuevas. Una vez grabadas las pistas, los secuenciadores ofrecen la posibilidad de editar cada pista, desde el simple corta y pega hasta
la edición del tono y velocidad del audio grabado.
Los secuenciadores permiten la utilización de efectos virtuales o externos.
Debido al inmenso mercado que existe entorno a los plug-ins (VST, DX, RTAS), podemos encontrar todo tipo de efectos sin necesidad de usar hardware externo: simuladores de amplificadores, reverberaciones que imitan salas existentes en el mundo,
auto-afinadores de melodías, armonizadores, delays, compresores, ecualizadores y
cientos de plug-ins de efectos de sonido.
Gracias al protocolo MIDI podemos interconectar varios sintetizadores entre sí
y hacerlos sonar con la secuencia grabada en la aplicación. Además, podemos editar
todas y cada una de las notas por las que está compuesta esa secuencia. Desplazamiento en el tiempo, duración de la nota, afinación, dinámica, expresión y altura, son
algunos de los parámetros que podemos editar tras una grabación MIDI. A estas pistas
MIDI les podemos asignar instrumentos virtuales que formen parte del secuenciador,
como por ejemplo un piano VSTi, o les podemos asignar un instrumento externo como
un sintetizador, Workstation, etc.
Los secuenciadores reproducen el material sonoro almacenado en sus pistas
de igual forma en cada reproducción. Según las necesidades del compositor, esta he2
Los principales secuenciadores de software de audio y MIDI actuales son Cubase, Logic, Pro Tools,
Sonar y Digital Performer. Existen otro tipo exclusivamente dedicados al MIDI diseñados para la creación
de música electrónica, como Propellehead Reason, o editores de partituras como Sibelius y Finale que no
se mencionan debido a que no se trata de herramientas genéricas sino específicas. Además también
existen secuenciadores digitales independientes a un computador (teclados Workstation, módulos de
sonido MIDI, etc…).
4
rramienta se convierte en un compañero indispensable para poder almacenar una grabación de sus piezas con una excelente calidad. Por último, los secuenciadores digitales permiten exportar la mezcla de la pieza grabada a diferentes formatos de audio.
MULTIMEDIA E INTERACTIVIDAD
Aunque sea un término relativamente moderno y más asociado a las nuevas
tecnologías, el concepto de interactividad esta basado en la relación de comunicación que existe entre diferentes elementos. Es el establecimiento de un flujo recíproco
de información en dos sentidos simultáneos, por lo que se establece una retroalimentación continua (feedback).
En la década de los 70 se creó en Francia el IRCAM3 que es el centro de investigación musical contemporáneo más importante de Europa y uno de los más importantes del mundo. Sus esfuerzos se centraron en desarrollar herramientas de software
que han aportado nuevas perspectivas musicales a los compositores en tres campos:

Composición asistida por ordenador (CAO): desarrollo de la aplicación
Open Music, que es un lenguaje de programación visual para la composición asistida por ordenador.

Análisis y síntesis de sonidos: Audiosculpt4, un software para la previsualización, análisis y procesamiento de sonidos; Diphone5, para el diseño de
sonidos a partir del análisis de un sonido; y Modalys6, para el estudio de la
vibración de objetos tridimensionales con el fin de crear nuevos instrumentos virtuales para usar con Open Music o Max/MSP.

Interactividad: Max/MSP7 para el diseño de software interactivo a partir de
objetos previamente programados; Spatialisateur8 se trata de un modulo
para Max exclusivamente orientado a la posición del sonido en el espacio; y
JMax9 que es la versión libre, y menos potente y fiable de Max.
Todos estos programas tienen en común que se desarrollan sobre una interfaz
gráfica que simplifica la labor del compositor, ofreciendo una vista agradable, libre de
códigos de lenguaje de programación textuales.
ARTE INTERACTIVO
El concepto de arte interactivo hace referencia a las piezas o instalaciones que
requieren la participación del público para alcanzar su realización. La idea de obra
abierta y no cerrada por el artista es una de las claves del universo artístico contemporáneo. Supone una novedad frente al arte tradicional el hecho de que el observador
forme parte de la obra e incluso influya de forma activa en el resultado artístico.
El compositor de música interactiva compone los procesos y no tanto una se3
Institut de Recherche et Coordination Acoustique et Musique. Instituto de investigación y coordinación en acústica
y música.
4
http://anasynth.ircam.fr/home/english/software/audiosculpt
5
http://anasynth.ircam.fr/home/english/software/diphone-studio
6
http://support.ircam.fr/doc-modalys/spip/rubrique.php3?id_rubrique=1
7
http://cycling74.com/products/maxmspjitter/
8
http://support.ircam.fr/forum-ol-doc/spat/3.0/spat-3-intro/co/overview.html
9
http://sourceforge.net/projects/jmax/
5
cuencia de eventos cerrada y finita, como puede ser un cuadro o una partitura convencional. Diseña algoritmos para que un computador responda a estímulos externos no
prefijados. Dispone las reglas del juego. Dos de las principales herramientas para el
diseño de algoritmos que ofrecen efectos visuales interactivos son vvvv10 y Quartz
Composer11.
MAX/MSP
La aplicación estándar a nivel mundial para el diseño de herramientas para la
creación de música electroacústica interactiva es Max/MSP (en adelante MAX). Es
una herramienta de software para música y multimedia con la que podemos establecer un diálogo musical en tiempo real entre intérprete y computador mediante dispositivos electrónicos.
Max se basa en el diseño modular a partir de objetos internos previamente
compilados y almacenados en la biblioteca de Max. Cada uno de estos objetos tiene
una función simple bien determinada. Combinados entre sí pueden generar algoritmos
arbitrariamente complejos. Debido a su diseño extensible y a su interfaz gráfica, Max
es considerado por muchos como la aplicación por excelencia para el desarrollo de
programas de música interactiva.
A partir de 1997 Max incorporó las extensiones de audio digital que permiten
que éste sea manipulado a tiempo real. En 2003 con la adición de Jitter, Max permite
el procesamiento de vídeo 3D y matrices gráficas.
Entre las últimas mejoras, cabe destacar la implementación de Max como Plugin externo de la aplicación Ableton Live, potente herramienta para utilizar la secuenciación a tiempo real y la interactividad de Max en directo.
EL FUTURO DEL SOFTWARE MUSICAL
Son numerosas las ventajas que se derivan de la evolución del hardware y el
software musical: incremento en la capacidad de almacenamiento y velocidad de procesamiento, reducción del tamaño del hardware, aparición de tecnologías inalámbricas
que eliminan el uso de cables, nuevos periféricos, etc. Todo ello permite que los diseñadores de software puedan crear herramientas cada vez más potentes que favorezcan la creación artística.
Una de las posibles líneas a seguir será la de la integración y combinación de
diferentes herramientas con el objetivo de crear otras nuevas que posean lo más característico de cada una, como, por ejemplo, la fusión de un secuenciador de audio y
vídeo con un editor de aplicaciones interactivas.
Internet hará posibles los ensayos musicales a tiempo real entre intérpretes
ubicados en distintas localizaciones. Además, surgirán nuevas formas de concierto en
las que cada intérprete pueda ejecutar la misma obra de forma sincronizada desde
lugares remotos.
La integración de sistemas electrónicos en los instrumentos tradicionales, así
como la creación de otros nuevos, dará como resultado que el sistema MIDI se incor10
11
http://vvvv.org/
http://developer.apple.com/graphicsimaging/quartzcomposer/
6
pore a cualquier tipo de instrumento, a que se fabriquen componentes de hardware
capaces de corregir fallos en la afinación del intérprete en tiempo real, a que se usen
sistemas de partituras electrónicos que reconozcan la interpretación, etc.
Los grandes compositores han llegado siempre a la más alta excelencia creativa independientemente de los recursos materiales a su alcance. Sin embargo, la utilización de unos determinados instrumentos en cada época deja una pátina que liga
cada producción artística al tiempo en que fue creada, como bien puede apreciarse en
la interpretación de música antigua con instrumentos originales. Tal vez el impulso e
interés de ciertos compositores por los elementos nuevos solo es plenamente justificable cuando el empleo de esos nuevos medios sean indispensables para acuñar nuevas estéticas y modos de expresión inéditos. Para algunos compositores esto fue un
imperativo y una necesidad (Beethoven, Wagner, Russolo, Varèse, Stockhausen…).
7
Descargar