HISTORIA DE LA MÚSICA ELECTRÓNICA

Anuncio
HISTORIA DE LA MÚSICA ELECTRÓNICA
INTRODUCCIÓN
La música electrónica forma parte de las vanguardias musicales del siglo XX, junto
al expresionismo, dodecafonismo, dadaísmo, serialismo, etc. La tecnología, eléctrica
primero y electrónica después, desempeñó un importante papel en la evolución musical
del recién terminado siglo. El uso de la tecnología supuso la creación de códigos
expresivos nuevos: rompió con el tabú del ruido, la subjetividad del intérprete, la
necesidad de la partitura y con el sentido mismo del arte musical.
La electroacústica y la música concreta son parte de lo que hoy llamamos música
electrónica. No sólo por el medio donde se realizan sino también por su dinámicas
particulares.
EL FUTURISMO
La primera vanguardia que incorporó la presencia tecnológica a su imaginario fue el
futurismo. El 20 de febrero de 1909 Marinetti, poeta, novelista, dramaturgo y agitador
italiano, publicó el manifiesto fundacional del movimiento en el que exigía un cambio
radical en el arte. Tildó a los museos de “tumbas del arte”, cargó contra las instituciones
y el postromanticismo. Por el contrario, exaltó la velocidad, las máquinas, la guerra y la
juventud.
Rápidamente, esta corriente, en origen literaria contagió al resto de las artes que
fueron, a su vez, publicando sus respectivos manifiestos. De este modo, en 1910 Pratella
firmó el Manifiesto de la música futurista. En este manifiesto se exhorta a los
compositores a “liberar su sensibilidad musical de todas las influencias del pasado.” Sin
embargo, este autor no supo traducir su ideario en composiciones de la misma calidad.
Fue Luigi Russolo (1885-1947), pintor y poeta futurista, el que, en 1910 y sin
formación previa en el campo de la acústica, la composición o la ingeniería, empezó a
construir sus máquinas de generar ruidos, los intonarumori. Su objetivo era ampliar e
incluso sustituir la gama tonal y textural de la música por “la variedad infinita de
timbres obtenidos a través de mecanismos especiales” y conferir al sonido no articulado,
vulgo ruido, la misma categoría estética que al sonido de la voz o de los instrumentos.
Conviene recordar que ruido se llama a todo sonido que no tiene una altura determinada
(una nota reconocible)
La primera máquina construida por Russolo y el pintor Piatti fue el Explosionador,
un dispositivo que con la sucesión automática de diez notas completas emulaba el
sonido de un motor. Le siguieron artefactos como el Ululador, el Gluglulador, el
Silbador, el Crepitador, el Ronroneador, el Rascador, y así hasta completar una
formación orquestal completa de intonarumori.
Si bien los intonarumori fueron esencialmente empleados como complemento a
desarrollos instrumentales más o menos tradicionales firmados por otros futuristas como
Pratella, Casavola o Balla, Russolo compuso algunas piezas destinadas a ser
exclusivamente interpretadas por sus máquinas. Desgraciadamente, todas las
grabaciones existentes desaparecieron durante la Segunda Guerra Mundial, así como la
práctica totalidad de los intonarumori y casi todas las partituras de Russolo. Sin
embargo, la reconstrucción a partir de ilustraciones de la época de algunos intonarumori
a manos de Mario Abate y Pietro Verardo en 1977, en ocasión de la Bienal de Venecia,
permite disfrutar hoy de una de las contadas ejecuciones en vivo de Risveglio di una
cittá, obra paradigmática de la música ejecutada por intonarumori.
La pieza, compuesta en 1913, reproduce el despertar de la moderna ciudad
industrial: maquinaria desperezándose, tráfico creciente, la masa obrera dirigiéndose a
la fábrica... In crescendo ruidoso que, al igual que los intonarumori, es ante todo una
celebración de la capacidad tecnológica del ser humano. Esta misma idea, íntimamente
ligada a los conceptos de progreso y futuro, marcó por siempre la iconografía de la
música electrónica. Cuarenta años antes de la aparición del ordenador, Russolo
anunciaba de esta manera la íntima relación entre creación y tecnología: “La evolución
musical es paralela a la multiplicación de las máquinas que colaboran con el hombre en
todos los frentes.”
La figura de Luigi Russolo es básica en la música electrónica. Incluso con su
exigencia del uso musical de “todos los ruidos que pueden hacerse con la boca sin
hablar ni cantar”, que incluye en el sexto bloque de su catalogación de los ruidos en
L’arte dei rumori, contribuyó sobremanera al desarrollo de la poesía fonética, que en
boca del dadaísta Kurt Schwitters y su paradigmática Die Sonate in Urlauten sentó en
1932 los cimientos de la audiopoética moderna.
MÁQUINAS Y MÚSICA
Luigi Russolo inició con sus intonarumori una tradición exclusivamente relacionada
con la música ligada a la tecnología: la del músico inventor. En relación directa está la
figura del luthier que protagoniza la aventura musical de exhibir las virtudes de su
invención. A consecuencia de ello, la música electrónica contó en sus primeros
momentos con todo tipo de inventos sonoros.
El teremín o eterófono o tereminovox apareció en 1920 de la mano del ruso Lev
Sergeyvich Termen o Léon Theremin. De aspecto estrambótico, parecido a una radio
destripada, el teremín es uno de los mecanismos más ingeniosos de la historia,
principalmente porque el intérprete toca sin que el intérprete tenga contacto físico con el
instrumento. Es decir, que se toca sin ser tocado, entre otras cosas porque puede
provocar una electrocución. Su autor construyó un emisor de campos magnéticos capaz
de convertir en señal acústica la alteración de los mismos. Así, su manejo quedó
reservado a un reducido grupo de virtuosos –entre los que destaca Clara Rockmorecapaces de controlar con el ajustado movimiento de sus manos el manejo “espacial” del
aparato. De sonido muy característico, agudo y ululante, el teremín fue rapidamente
asimilado por Holliwood para anunciar las presencias de las películas de los años 30;
más adelante lo escucharíamos en la música pop como en el conocido tema “Good
vibrations” de los Beach Boys o el easy listening. Otros usuarios fueron Bernard
Herrmann o Edgar Varèse.
También Varèse, junto a Messiaen, Honegger y Milhaud, aparece entre los
compositores que utilizaron las famosas ondas Martenot desde 1928 y hasta bien
entrada la década de los cincuenta. Utilizadas sobre todo en Francia, las ondas Martenot,
basadas en la síntesis sustractiva, se accionaban desde un teclado de cinco octavas capaz
de ejecutar intervalos temperados y glissatos. Este mismo principio sirvió de modelo
para otros precursores del sintetizador moderno como el claviolín o el ondiolín,
instrumento este que fue muy utilizado por músicos del easy listening como Juan García
Esquivel o Martín Denny.
Otra herramienta de importancia histórica en el desarrollo de la música electrónica
es la cinta magnética. Su utilización cambió definitivamente la forma de grabar música
y el papel del estudio, convertido a partir del trabajo de Pierre Schaeffer en un elemento
más del proceso creativo. De la cinta magnética se hablará en profundidad en los
apartados sobre música concreta y “Tape Music”.
Otro invento revolucionario fue el sintetizador, inventado en 1955 por Harry Olson
y Herbert Belarin. El primer sintetizador se trataba de una máquina inmensa capaz de
generar electrónicamente sonidos para ser grabados en magnetofón y cuyos parámetros
había que especificar escribiendo una partitura en papel perforado. Ya entrando en la
década de los 60 llegó el control por tensión, un avance tecnológico importante que
automatizó muchos de los procesos, ya que con él unos dispositivos podían controlar
otros de una manera muy sencilla.
Robert Moog fue el que diseñó y comercializó en 1964 algunos de los primeros
sintetizadores que incorporaban este control por tensión. La producción industrial
abarató estos equipos, lo que permitió que mucha gente pudiera hacer música
electrónica, así en esta época surgió Walter Carlos con su Switched on Bach, uno de los
discos que más ha popularizado el sintetizador.
A través de sus distintas encarnaciones, el sintetizador, un generador de sonidos
artificiales, es decir, no emitidos por una fuente natural, se ha convertido en la base de
la música electrónica hasta la aparición del software y los sistemas digitales.
Por último, no podemos olvidarnos de una de las herramientas más utilizadas hoy en
día: el ordenador. El uso del ordenador se divide en dos grandes tareas: la síntesis del
sonido, es decir, la creación de timbres y la composición automática o producción de
una “partitura”.
El padre de la síntesis y proceso de sonido por ordenador es Max Mathews que junto
a John Pierce escribió la serie de programas MUSICN. Son, en realidad, lenguajes de
programación para realizar algoritmos de síntesis y de procesamiento de sonido e
incluso de composición. Estos lenguajes sirven, pues, para construir o manipular
directamente en el ordenador la señal acústica en formato digital, la cual posteriormente
puede ser transferida a un sistema de grabación o escuchada a través del convertidor
digital-analógico del propio ordenador.
Estos lenguajes de síntesis imitan el concepto de sintetizador modular que apareció
en los años 60, donde se conectaban módulos entre sí (osciladores, generadores de
ruido, generadores de envolvente, etc.) para conseguir un sonido determinado. Pero las
ventajas de la utilización del ordenador con respecto a los medios analógicos son claras:
la total precisión numérica con que se puede expresar cualquier parámetro del sonido y
la repetibilidad (la calidad del sonido de un sistema analógico depende de factores
ambientales como temperatura, humedad, etc.; un ordenador sólo maneja números que
siempre serán los mismos)
La composición automática consiste en que el ordenador componga todos los
detalles de la música a partir de las instrucciones o deseos del compositor. La
interpretación puede ser electroacústica o bien un grupo de instrumentos o voces. Para
ello se escribe un programa en que se implementan uno o varios modelos matemáticos
de cómo quiere el compositor que sea la obra. Los métodos más utilizados son los
estocásticos1, los que utilizan la lógica, las fórmulas aritméticas, los modelos
matemáticos basados en las más variadas disciplinas, etc.
Pioneros de este campo son: Lejaren Hiller con su suite Illiac; en Holanda, Michael
Koening; y en Francia, Pierre Barbaud y, especialmente, Yannis Xenakis.
1
Perteneciente o relativo al azar.
MÚSICA CONCRETA
La diferencia entre música concreta y música electrónica sólo podemos hallarla
históricamente en una fase inicial de la experimentación, hacia la década de los
cincuenta,, cuando ambas tendencias se desarrollan de forma autónoma en estado
“puro”, como investigación de laboratorio, configurando peculiaridades técnicolingüísticas aparentemente incompatibles, aunque destinadas más tarde a integrarse en
una única tendencia.
En la música concreta, el material de base está formado por elementos preexistentes:
sonidos y ruidos provenientes de cualquier tipo de contexto, es decir, obtenidos de los
cotidiano, de la naturaleza y también voces e instrumentos tradicionales, que se graban
con el magnetófono, se almacenan y que se elaboran posteriormente mediante diferentes
técnicas de montaje.
Por el contrario, la música electrónica se vale sólo de sonidos provenientes
directamente de los aparatos electroacústicos, en los que las vibraciones eléctricas se
convierten en vibraciones sonoras.
La gran aportación de la música concreta fue descubrir las posibilidades del estudio
de grabación hasta el punto de convertirlo en un elemento determinante del proceso
compositivo. Nacía, por primera vez, un género musical inconcebible sin la presencia de
dispositivos eléctricos. Tanto o más relevante fue la utilización estética de sonidos no
emitidos por personas o instrumentos. Si Russolo construyó los intonarumori para
emular el rugido de las fábricas, los músicos concretos “toman” ese sonido directamente
de la realidad gracias al desarrollo de la microfonía y las técnicas de grabación.
El término “música concreta” acuñado por Pierre Schaeffer en 1952 se opone al de
música abstracta. Como tal hay que entender la música tradicional que se basa en las
fases de composición – partitura- interpretación. La música concreta, por el contrario,
utiliza la cinta magnética como soporte y, al mismo tiempo, obra. El compositor trabaja
con ”objetos sonoros” ya existentes que graba, manipula y yuxtapone. La obra, por
tanto, no puede ser interpretada, sólo escuchada.
En 1948, Schaeffer compone Études de bruits , un total de cinco trabajos en los que
conjuga distintas velocidades de reproducción, construye bucles y crea efectos diversos
como reverberaciones, delays o distorsiones.
A raíz de la asignación en 1949 del joven compositor Pierre Henry como ayudante,
se forjó una alianza musical que dio como fruto piezas tan emblemáticas como
Symphonie pour un homme seul y Orphée 53 y se configuró el binomio fundacional del
Groupe de Recherches de Musique Concrète, al que en 1951 se sumó el ingeniero
Jacques Poullin. El trío entró a trabajar en el primer estudio electroacústico de la
historia financiado por la RTF enteramente. Al cabo de cuatro años contaban con:
-
Un grabador de cinta de tres pistas.
Una máquina con diez cabezales lectores capaces de generara loops con eco.
Un lector de cinta con veinticuatro velocidades de reproducción.
En los comienzos de la música concreta el sonido se podía procesar mediante
manipulación de la cinta o mediante dispositivos electrónicos. También Radio France
contribuyó al desarrollo de la espacialización del sonido (estéreo y cuadrafónico),
diseñando sistemas de altavoces distribuidos en la sala de conciertos que, en teoría,
podían mover o ubicar cualquier sonido en el espacio. Entre los procesados electrónicos
figuraban como los más comunes el filtrado en bandas de frecuencia y la reverberación.
Estas y otras herramientas de confección propia sirvieron a estos creadores así como
a ilustres invitados como Boulez, Messiaen, Stockhausen, Varèse o Honegger.
Pierre Henry asumió la música concreta como escuela artística, así sus obras están
cargadas de una emotividad que podemos apreciar al escuchar la Messe pour le temps
present (compuesto para el coreógrafo Maurice Béjart), Variations pour une porte et un
soupir o la conocida Psyché Rock. Más adelante, P. Henry utilizaría los sonidos
electrónicos además de los concretos, iniciándose lo que después se llamaría música
electroacústica.
Según Andrea Lanza “la corriente de música concreta, fuera de un breve periodo de
éxito, será un fenómeno sustancialmente aislado en el panorama de la vanguardia
europea, sobre el que no sabrá ejercer una influencia directa de importancia.”
Sin embargo, y según otros autores, son muchas las aportaciones con las que Pierre
Schaeffer contribuyó a la evolución del pensamiento musical. Fue probablemente el
primero en reconocer el altavoz como un verdadero instrumento musical, ya que
permitía al oyente aislar el sonido del objeto que lo había producido. Según sus propias
palabras “el objeto sonoro no debe confundirse con el cuerpo que lo genera”2. Schaeffer
utilizó el término “acusmática” para designar la escucha de sonido reproducido
mediante altavoces. Este término se refiere a la leyenda sobre las clases de Pitágoras,
según la cual, una cortinaba separaba a éste de sus oyentes para evitar así que el
contacto visual distrajera la estricta concentración en la escucha.
Aunque cercano a las experiencias del GRM, en tanto que experimentador con
sonidos concretos, Edgard Varèse alterna el acercamiento a la electrónica con una
personal relectura del serialismo y un cierto sentido de lo performántico. Muchos
consideran su clásica obra Déserts (1954) para cinta magnética y orquesta como obra
maestra de música concreta. Posteriormente su Poème electronique (1958), su única
obra enteramente electrónica, seguirá manifestando su interés por el sonido organizado
tecnológicamente. Su búsqueda incansable de nuevos horizontes fue la principal
característica de su carrera musical. Sus palabras reflejan el deseo que supone la
culminación de todos los anhelos de la música electrónica: “Sueño con instrumentos
que obedezcan a mi pensamiento, y que con la ayuda de un sinfín de timbres
inimaginables se presten a cualquier combinación que yo desee imponerles, rindiéndose
a las exigencias de mi ritmo interno.”
Pierre Schaeffer y Guy Reibel, Solfège de l’objet sonore, París, Èditionsdu Seuil, 1967, apartado 73.0,
tercer pensamiento.
2
MÚSICA ELECTRÓNICA (Elektronische Musik)
El término música electrónica se utiliza hoy para casi todo tipo de música
electrónica, pero en los años cincuenta era casi un sinónimo de la música electroacústica
de la denominada Escuela de Colonia
Al principio de los años 50, un grupo de científicos, técnicos y músicos fundó el
Estudio de Radio en Colonia; basaron su música en utilizar como material de partida el
sonido generado electrónicamente, aunque una vez grabado podían aplicar las mismas
manipulaciones de la música concreta
Por aquellos años, estaba en su apogeo el serialismo integral, y la música electrónica
permitía, además de ejecutar los parámetros musicales de una forma totalmente precisa,
generalizar el serialismo a otros parámetros del sonido más allá de lo que puede
controlar un intérprete humano. Así pudieron serializar de cada sonido su frecuencia,
duración, volumen, ataque y caída de la envolvente, situación en el espacio,
reverberación, etc.
En esta primera época, los principales recursos para crear una composición
electroacústica eran los siguientes:
-
-
Generadores de ondas senoidales, de onda cuadrada, de diente de sierra, de
ruido blanco...
Filtros
Anillos de cinta, que servían para generar repeticiones de una sección
sonora.
Corte y montaje de cintas magnéticas.
Transposiciones mediante la modificación de la velocidad de los
magnetófonos. Más tarde fue posible efectuarlas también sin cambiar la
velocidad.
Modulación de anillo.
Movimiento del sonido en el espacio.
Reverberación
El Studio für Elektronische Musik de Colonia tiende en sus primeros momentos a
una restricción del área musical a los acontecimientos fónicos sobre los que sea posible
ejercer un control racional total, es decir, a los sonidos que pueden producirse por
síntesis con los aparatos del laboratorio.
La experimentación en el Studio de Colonia aparece en un principio como un
simple traslado al terreno electrónico de los principios postwebernianos. del serialismo
ampliado. La limitación a los doce sonidos del dodecafonismo y la exclusión de los
microintervalos en un terreno absolutamente inexplorado como el electrónico se
presentan como limitaciones injustificadas y algo absurdas. Razones por las cuales
estas limitaciones desaparecerían muy pronto.
Oficialmente, la música electrónica nace en 1951 de la mano de los germanos
Robert Beyer y Herbert Eimert, pero sin duda ha sido Karlheinz Stockhausen quien ha
dado a conocer universalmente la música electrónica. A él se deben las primeras obras
puramente electrónicas jamás publicadas, Studien I und II (1952) y Gesang Der
Jüngline (1955-1956), así como la paternidad de la música espacial gracias a Kontakte
(1958).
En sus Estudios I y II intentó sintetizar timbres variados mediante la suma de
ondas senoidales, esto es, utilizó la hoy familiar síntesis aditiva. Esta se basa en el
Teorema de Fourier que dice que cualquier sonido se puede descomponer en una suma
de ondas senoidales. La síntesis aditiva consiste en el proceso inverso, es decir, ir
sumando tonos puros hasta conseguir un sonido complejo.
Stockhausen pronto se encontró con las limitaciones de la tecnología de su
época, por lo tedioso del trabajo con aquellos medios y porque la idea de sintetizar
“cualquier” sonido no se cumple en absoluto y todos sus timbres suenan “electrónicos”
y menos variados y ricos que los de los instrumentos acústicos o la voz. Habrá que
esperar a la utilización del ordenador para poder crear sonidos equivalentes en riqueza a
los de los instrumentos acústicos.
No es casual que la primera composición artísticamente importante realizada en
el Studio de Colonia sea también una clamorosa contradicción de sus compromisos
puristas. En efecto, el Gesang der Jünglinge elabora un material de base que no es solo
de origen concretos sino que se presenta también cargado de potencialidades expresivas,
de residuos semánticos y de connotaciones extramusicales. La novedad principal
consiste en la concepción espacial de los acontecimientos sonoros que se convierte en
parte integrante de la estructura de la composición, además de vehículo de contenidos
expresivos.
Tras esta y otras obras la separación entre música concreta y electrónica e
incluso entre música para instrumentos tradicionales y música electrónica será más
ficticia que real.
El estudio de Colonia se impuso como modelo y sirvió de estímulo para la
fundación de otros estudios: la RAI en Milán bajo la dirección de Berio. Este estudio, a
su vez, sirvió de ejemplo para otras instituciones en Berlín, Munich, Estocolmo, etc.
TAPE MUSIC
La primera música electroacústica en Norteamérica fue conocida con el nombre
de Tape Music.
En 1948 Louis y Bebe Barron empezaron a experimentar con magnetófonos en
Nueva York. Las técnicas de manipulación eran, entre otras: reproducción hacia delante
y hacia atrás de sonidos instrumentales previamente grabados y desplazamiento
temporal de secciones pregrabadas cortando y pegando cinta. En 1951 John Cage se
interesó por el trabajo de los Barron y fundó, junto con otros compositores, un grupo de
trabajo para llevar a cabo el proyecto de Music for Magnetic Tape. Las técnicas de
manipulación eran comparables a las empleadas tanto en el entorno de la música
concreta como en el de la elektronische Musik. No obstante, las ideas musicales propias
de los americanos eran completamente distintas a las europeas. La obra más conocida de
este grupo es Imaginary Landscapes nº 5 cuya composición se basa en operaciones
aleatorias realizadas con ayuda del I Ching
Paralelamente al grupo de Cage, Vladimir Ussachevsky trabajó con magnetófonos
en Nueva York. La transposición de sonido previamente grabado y otras técnicas de la
música conreta fueron los procedimientos iniciales de trabajo. En 1952 Oliver Daniel
acuñó el término Tape Music para referirse a la música producida en el entorno de
Ussachevsky. Sus producciones se realizaron en el Experimental Music Studio que se
convertiría posteriormente en el Tape Music Studio de la Columbia University de
Nueva York.
La primera música electroacústica europea – la elecktronische Musik y la música
concreta- se desarrolló a partir de principios técnicos y compositivos. Por el contrario, la
Tape Music no conoció aparentemente ninguna frontera ideológica. Habría que
investigar si los dos grupos que desarrollaron la primera música electroacústica en
Estados Unidos establecieron de manera consciente una diferencia entre ellos y, en caso
de ser así, cuál fue esa diferencia.
ELECTRÓNICA EN VIVO
A partir de la fusión entre música grabada y ejecución instrumental en obras
como Musica su due dimensioni de Maderna, Transición II de Kagel o Kontakte de
Stockhausen (las dos últimas obras para piano, percusión y banda magnética) se relega
la idea muy generalizada en esos años de que la música electrónica representaba la
música del futuro, destinada a sustituir todos los demás medios de producción sonora.
El concepto “electrónica en vivo” se extendió en los años 60 y se refiere, dentro del
marco de la música electroacústica, a una situación de concierto distinta de la que se da
en un concierto de altavoces sin intérpretes.
Junto al término “electrónica en vivo” se utilizan habitualmente estas variantes,
entre otras: Live Electronics, Live Electronic Music, Live-elektronische Musik.
Existen diferentes definiciones de la música electrónica en vivo. En el ámbito de
habla alemana ésta se considera como una extensión de la música realizada
exclusivamente para altavoces. Extensión en un doble sentido: en primer lugar, el
material sonoro generado electrónicamente no se sintetiza en un estudio, sino en tiempo
real sobre el escenario; en segundo lugar, el sonido de los instrumentos acústicos o de la
voz humana se transforma electrónicamente también en tiempo real. En Norteamérica se
utiliza este concepto de una manera más amplia: se entiende también como Live
Electronic Music el hecho de reproducir, de manera simultánea a la actuación de uno o
más músicos, un cinta magnetofónica producida con anterioridad.
Una clasificación bastante completa de los posibles componentes y situaciones
propios de la electrónica en vivo es la que nos proporciona Martin Supper. El autor
propone los siguientes subgrupos:
1. Ejecución instrumental con reproducción de material sonoro producido
con anterioridad. Uno de los primeros ejemplos de la primera categoría se
encuentra en la obra de Varèse, Déserts (1949-1954), para 14 instrumentos
de viento, piano, percusión y tres interpolaciones de “organized sound”.
Existen cuatro versiones distintas de las cintas magnetofónicas, las
interpolaciones, realizadas y modificadas en diferentes estudios desde los
años 1953/1954, 1960 y 1961. La primera fue realizada en el estudio parisino
de Schaeffer y la última en el Columbia-Princeton Electronic Music Center
de Nueva York. En Déserts se alterna la reproducción de la cinta con
secciones orquestales, aunque también resulta posible su interpretación sin
cinta.
2. Ejecución instrumental con procesado electrónico de sonido. La segunda
categoría es la de mayor actualidad dentro de la electrónica en vivo. Entre las
primeras obras se encuentra Mikrophonie I y II (1964) de Stockhausen quien
abría el camino con una composición para gong, dos micrófonos, filtro y
potenciómetros. En Mikrophonie se amplifican los sonidos recogidos de un
gong gigantesco que se filtran y distribuyen espacialmente, en esta obra los
objetos sonoros que se obtienen son muy variados, pero están sutilmente
relacionados al proceder de una misma fuente sonora.
3. Utilización de sintetizadores en situación de concierto. En los años 60
aparecieron numerosos conjuntos instrumentales de electrónica en vivo como
The Sonic Band Union en Estados Unidos, en Italia el MEV (Música
Electrónica Viva) o el grupo de improvisación Nuova Consonanza.
4. Conjuntos instrumentales de música electrónica en vivo. la única
diferencia con el grupo anterior es que es que es que es que cada uno de sus
miembros, además de dominar un instrumento, tiene que ser compositor.
5. Sistemas interactivos asistidos por ordenador. Se trata de sistemas capaces
de “escuchar” los instrumentos en vivo y reaccionar produciendo otra
música u otros sonidos. Este término fue introducido en 1967 por el
compositor norteamericano Joel Chabade. Suponía, para él, componer con
un sistema en tiempo real durante el concierto. En este tipo de composición
el concepto “interactivo” se refiere a la relación entre hombre y máquina. En
la actualidad, la composición interactiva ha encontrado un campo muy
propicio en Internet, o en las aplicaciones de ordenador para uso individual,
en las que el propio usuario o destinatario de la música interacciona con el
sistema y genera su propia música.
LA INFLUENCIA EN EL POP Y EN EL ROCK
Desde el principio la música popular ha utilizado las nuevas tecnologías para
enriquecer sus posibilidades sonoras así como para buscar nuevos lenguajes dentro del
pop y el rock.
También tuvo sus pioneros, uno de ellos fue el grupo vocal Chipmunks (1955)
que utilizó sus grabaciones a doble velocidad para conseguir un timbre especial en sus
voces. Otro es el álbum Sargento Pepper de The Beatles (años 60) donde se utilizaron
efectos de la música concreta, especialmente en la canción A Day in the Life. También
los Jefferson Airplane, Grateful Dead, Frank Zappa, Pink Floyd (que utilizó música
concreta y técnica de collage). En Alemania, Kraftwerk; en Estados Unidos, Terry Riley
a medio camino entre lo “serio” y lo pop con su minimalismo que se basa en ostinatos o
giros melódicos que se repiten a la manera de bucles de cinta.
En la actualidad, la tecnología en la música pop, rock, industrial es fundamental.
En el tecno incluso la figura del intérprete ha desaparecido por la del disk jockey, que
actuando sobre el tocadiscos y otros dispositivos manipula grabaciones o repite
rítmicamente cualquier música preexistente que cae en sus manos.
CONCLUSIÓN
La ebullición de las ideas y las creaciones más interesantes suelen producirse a
la vez que se perfecciona la herramienta tecnológica correspondiente. A pesar de que en
las dos últimas décadas del siglo XX la evolución ha sido más lenta y los desarrollos
tecnológicos han sido en muchos casos cuantitativos (más barato, más rápido, más
capaz, más potente) la creación electroacústica y por ordenador está muy viva y
realmente es el arte sonoro de hoy, ha sido una de las aportaciones más genuinas del
siglo XX y también es el futuro, con un terreno inmenso por explorar que las
experiencias de los últimos cincuenta años han dejado apenas perfilado.
Descargar