HISTORIA DE LA MÚSICA ELECTRÓNICA INTRODUCCIÓN La música electrónica forma parte de las vanguardias musicales del siglo XX, junto al expresionismo, dodecafonismo, dadaísmo, serialismo, etc. La tecnología, eléctrica primero y electrónica después, desempeñó un importante papel en la evolución musical del recién terminado siglo. El uso de la tecnología supuso la creación de códigos expresivos nuevos: rompió con el tabú del ruido, la subjetividad del intérprete, la necesidad de la partitura y con el sentido mismo del arte musical. La electroacústica y la música concreta son parte de lo que hoy llamamos música electrónica. No sólo por el medio donde se realizan sino también por su dinámicas particulares. EL FUTURISMO La primera vanguardia que incorporó la presencia tecnológica a su imaginario fue el futurismo. El 20 de febrero de 1909 Marinetti, poeta, novelista, dramaturgo y agitador italiano, publicó el manifiesto fundacional del movimiento en el que exigía un cambio radical en el arte. Tildó a los museos de “tumbas del arte”, cargó contra las instituciones y el postromanticismo. Por el contrario, exaltó la velocidad, las máquinas, la guerra y la juventud. Rápidamente, esta corriente, en origen literaria contagió al resto de las artes que fueron, a su vez, publicando sus respectivos manifiestos. De este modo, en 1910 Pratella firmó el Manifiesto de la música futurista. En este manifiesto se exhorta a los compositores a “liberar su sensibilidad musical de todas las influencias del pasado.” Sin embargo, este autor no supo traducir su ideario en composiciones de la misma calidad. Fue Luigi Russolo (1885-1947), pintor y poeta futurista, el que, en 1910 y sin formación previa en el campo de la acústica, la composición o la ingeniería, empezó a construir sus máquinas de generar ruidos, los intonarumori. Su objetivo era ampliar e incluso sustituir la gama tonal y textural de la música por “la variedad infinita de timbres obtenidos a través de mecanismos especiales” y conferir al sonido no articulado, vulgo ruido, la misma categoría estética que al sonido de la voz o de los instrumentos. Conviene recordar que ruido se llama a todo sonido que no tiene una altura determinada (una nota reconocible) La primera máquina construida por Russolo y el pintor Piatti fue el Explosionador, un dispositivo que con la sucesión automática de diez notas completas emulaba el sonido de un motor. Le siguieron artefactos como el Ululador, el Gluglulador, el Silbador, el Crepitador, el Ronroneador, el Rascador, y así hasta completar una formación orquestal completa de intonarumori. Si bien los intonarumori fueron esencialmente empleados como complemento a desarrollos instrumentales más o menos tradicionales firmados por otros futuristas como Pratella, Casavola o Balla, Russolo compuso algunas piezas destinadas a ser exclusivamente interpretadas por sus máquinas. Desgraciadamente, todas las grabaciones existentes desaparecieron durante la Segunda Guerra Mundial, así como la práctica totalidad de los intonarumori y casi todas las partituras de Russolo. Sin embargo, la reconstrucción a partir de ilustraciones de la época de algunos intonarumori a manos de Mario Abate y Pietro Verardo en 1977, en ocasión de la Bienal de Venecia, permite disfrutar hoy de una de las contadas ejecuciones en vivo de Risveglio di una cittá, obra paradigmática de la música ejecutada por intonarumori. La pieza, compuesta en 1913, reproduce el despertar de la moderna ciudad industrial: maquinaria desperezándose, tráfico creciente, la masa obrera dirigiéndose a la fábrica... In crescendo ruidoso que, al igual que los intonarumori, es ante todo una celebración de la capacidad tecnológica del ser humano. Esta misma idea, íntimamente ligada a los conceptos de progreso y futuro, marcó por siempre la iconografía de la música electrónica. Cuarenta años antes de la aparición del ordenador, Russolo anunciaba de esta manera la íntima relación entre creación y tecnología: “La evolución musical es paralela a la multiplicación de las máquinas que colaboran con el hombre en todos los frentes.” La figura de Luigi Russolo es básica en la música electrónica. Incluso con su exigencia del uso musical de “todos los ruidos que pueden hacerse con la boca sin hablar ni cantar”, que incluye en el sexto bloque de su catalogación de los ruidos en L’arte dei rumori, contribuyó sobremanera al desarrollo de la poesía fonética, que en boca del dadaísta Kurt Schwitters y su paradigmática Die Sonate in Urlauten sentó en 1932 los cimientos de la audiopoética moderna. MÁQUINAS Y MÚSICA Luigi Russolo inició con sus intonarumori una tradición exclusivamente relacionada con la música ligada a la tecnología: la del músico inventor. En relación directa está la figura del luthier que protagoniza la aventura musical de exhibir las virtudes de su invención. A consecuencia de ello, la música electrónica contó en sus primeros momentos con todo tipo de inventos sonoros. El teremín o eterófono o tereminovox apareció en 1920 de la mano del ruso Lev Sergeyvich Termen o Léon Theremin. De aspecto estrambótico, parecido a una radio destripada, el teremín es uno de los mecanismos más ingeniosos de la historia, principalmente porque el intérprete toca sin que el intérprete tenga contacto físico con el instrumento. Es decir, que se toca sin ser tocado, entre otras cosas porque puede provocar una electrocución. Su autor construyó un emisor de campos magnéticos capaz de convertir en señal acústica la alteración de los mismos. Así, su manejo quedó reservado a un reducido grupo de virtuosos –entre los que destaca Clara Rockmorecapaces de controlar con el ajustado movimiento de sus manos el manejo “espacial” del aparato. De sonido muy característico, agudo y ululante, el teremín fue rapidamente asimilado por Holliwood para anunciar las presencias de las películas de los años 30; más adelante lo escucharíamos en la música pop como en el conocido tema “Good vibrations” de los Beach Boys o el easy listening. Otros usuarios fueron Bernard Herrmann o Edgar Varèse. También Varèse, junto a Messiaen, Honegger y Milhaud, aparece entre los compositores que utilizaron las famosas ondas Martenot desde 1928 y hasta bien entrada la década de los cincuenta. Utilizadas sobre todo en Francia, las ondas Martenot, basadas en la síntesis sustractiva, se accionaban desde un teclado de cinco octavas capaz de ejecutar intervalos temperados y glissatos. Este mismo principio sirvió de modelo para otros precursores del sintetizador moderno como el claviolín o el ondiolín, instrumento este que fue muy utilizado por músicos del easy listening como Juan García Esquivel o Martín Denny. Otra herramienta de importancia histórica en el desarrollo de la música electrónica es la cinta magnética. Su utilización cambió definitivamente la forma de grabar música y el papel del estudio, convertido a partir del trabajo de Pierre Schaeffer en un elemento más del proceso creativo. De la cinta magnética se hablará en profundidad en los apartados sobre música concreta y “Tape Music”. Otro invento revolucionario fue el sintetizador, inventado en 1955 por Harry Olson y Herbert Belarin. El primer sintetizador se trataba de una máquina inmensa capaz de generar electrónicamente sonidos para ser grabados en magnetofón y cuyos parámetros había que especificar escribiendo una partitura en papel perforado. Ya entrando en la década de los 60 llegó el control por tensión, un avance tecnológico importante que automatizó muchos de los procesos, ya que con él unos dispositivos podían controlar otros de una manera muy sencilla. Robert Moog fue el que diseñó y comercializó en 1964 algunos de los primeros sintetizadores que incorporaban este control por tensión. La producción industrial abarató estos equipos, lo que permitió que mucha gente pudiera hacer música electrónica, así en esta época surgió Walter Carlos con su Switched on Bach, uno de los discos que más ha popularizado el sintetizador. A través de sus distintas encarnaciones, el sintetizador, un generador de sonidos artificiales, es decir, no emitidos por una fuente natural, se ha convertido en la base de la música electrónica hasta la aparición del software y los sistemas digitales. Por último, no podemos olvidarnos de una de las herramientas más utilizadas hoy en día: el ordenador. El uso del ordenador se divide en dos grandes tareas: la síntesis del sonido, es decir, la creación de timbres y la composición automática o producción de una “partitura”. El padre de la síntesis y proceso de sonido por ordenador es Max Mathews que junto a John Pierce escribió la serie de programas MUSICN. Son, en realidad, lenguajes de programación para realizar algoritmos de síntesis y de procesamiento de sonido e incluso de composición. Estos lenguajes sirven, pues, para construir o manipular directamente en el ordenador la señal acústica en formato digital, la cual posteriormente puede ser transferida a un sistema de grabación o escuchada a través del convertidor digital-analógico del propio ordenador. Estos lenguajes de síntesis imitan el concepto de sintetizador modular que apareció en los años 60, donde se conectaban módulos entre sí (osciladores, generadores de ruido, generadores de envolvente, etc.) para conseguir un sonido determinado. Pero las ventajas de la utilización del ordenador con respecto a los medios analógicos son claras: la total precisión numérica con que se puede expresar cualquier parámetro del sonido y la repetibilidad (la calidad del sonido de un sistema analógico depende de factores ambientales como temperatura, humedad, etc.; un ordenador sólo maneja números que siempre serán los mismos) La composición automática consiste en que el ordenador componga todos los detalles de la música a partir de las instrucciones o deseos del compositor. La interpretación puede ser electroacústica o bien un grupo de instrumentos o voces. Para ello se escribe un programa en que se implementan uno o varios modelos matemáticos de cómo quiere el compositor que sea la obra. Los métodos más utilizados son los estocásticos1, los que utilizan la lógica, las fórmulas aritméticas, los modelos matemáticos basados en las más variadas disciplinas, etc. Pioneros de este campo son: Lejaren Hiller con su suite Illiac; en Holanda, Michael Koening; y en Francia, Pierre Barbaud y, especialmente, Yannis Xenakis. 1 Perteneciente o relativo al azar. MÚSICA CONCRETA La diferencia entre música concreta y música electrónica sólo podemos hallarla históricamente en una fase inicial de la experimentación, hacia la década de los cincuenta,, cuando ambas tendencias se desarrollan de forma autónoma en estado “puro”, como investigación de laboratorio, configurando peculiaridades técnicolingüísticas aparentemente incompatibles, aunque destinadas más tarde a integrarse en una única tendencia. En la música concreta, el material de base está formado por elementos preexistentes: sonidos y ruidos provenientes de cualquier tipo de contexto, es decir, obtenidos de los cotidiano, de la naturaleza y también voces e instrumentos tradicionales, que se graban con el magnetófono, se almacenan y que se elaboran posteriormente mediante diferentes técnicas de montaje. Por el contrario, la música electrónica se vale sólo de sonidos provenientes directamente de los aparatos electroacústicos, en los que las vibraciones eléctricas se convierten en vibraciones sonoras. La gran aportación de la música concreta fue descubrir las posibilidades del estudio de grabación hasta el punto de convertirlo en un elemento determinante del proceso compositivo. Nacía, por primera vez, un género musical inconcebible sin la presencia de dispositivos eléctricos. Tanto o más relevante fue la utilización estética de sonidos no emitidos por personas o instrumentos. Si Russolo construyó los intonarumori para emular el rugido de las fábricas, los músicos concretos “toman” ese sonido directamente de la realidad gracias al desarrollo de la microfonía y las técnicas de grabación. El término “música concreta” acuñado por Pierre Schaeffer en 1952 se opone al de música abstracta. Como tal hay que entender la música tradicional que se basa en las fases de composición – partitura- interpretación. La música concreta, por el contrario, utiliza la cinta magnética como soporte y, al mismo tiempo, obra. El compositor trabaja con ”objetos sonoros” ya existentes que graba, manipula y yuxtapone. La obra, por tanto, no puede ser interpretada, sólo escuchada. En 1948, Schaeffer compone Études de bruits , un total de cinco trabajos en los que conjuga distintas velocidades de reproducción, construye bucles y crea efectos diversos como reverberaciones, delays o distorsiones. A raíz de la asignación en 1949 del joven compositor Pierre Henry como ayudante, se forjó una alianza musical que dio como fruto piezas tan emblemáticas como Symphonie pour un homme seul y Orphée 53 y se configuró el binomio fundacional del Groupe de Recherches de Musique Concrète, al que en 1951 se sumó el ingeniero Jacques Poullin. El trío entró a trabajar en el primer estudio electroacústico de la historia financiado por la RTF enteramente. Al cabo de cuatro años contaban con: - Un grabador de cinta de tres pistas. Una máquina con diez cabezales lectores capaces de generara loops con eco. Un lector de cinta con veinticuatro velocidades de reproducción. En los comienzos de la música concreta el sonido se podía procesar mediante manipulación de la cinta o mediante dispositivos electrónicos. También Radio France contribuyó al desarrollo de la espacialización del sonido (estéreo y cuadrafónico), diseñando sistemas de altavoces distribuidos en la sala de conciertos que, en teoría, podían mover o ubicar cualquier sonido en el espacio. Entre los procesados electrónicos figuraban como los más comunes el filtrado en bandas de frecuencia y la reverberación. Estas y otras herramientas de confección propia sirvieron a estos creadores así como a ilustres invitados como Boulez, Messiaen, Stockhausen, Varèse o Honegger. Pierre Henry asumió la música concreta como escuela artística, así sus obras están cargadas de una emotividad que podemos apreciar al escuchar la Messe pour le temps present (compuesto para el coreógrafo Maurice Béjart), Variations pour une porte et un soupir o la conocida Psyché Rock. Más adelante, P. Henry utilizaría los sonidos electrónicos además de los concretos, iniciándose lo que después se llamaría música electroacústica. Según Andrea Lanza “la corriente de música concreta, fuera de un breve periodo de éxito, será un fenómeno sustancialmente aislado en el panorama de la vanguardia europea, sobre el que no sabrá ejercer una influencia directa de importancia.” Sin embargo, y según otros autores, son muchas las aportaciones con las que Pierre Schaeffer contribuyó a la evolución del pensamiento musical. Fue probablemente el primero en reconocer el altavoz como un verdadero instrumento musical, ya que permitía al oyente aislar el sonido del objeto que lo había producido. Según sus propias palabras “el objeto sonoro no debe confundirse con el cuerpo que lo genera”2. Schaeffer utilizó el término “acusmática” para designar la escucha de sonido reproducido mediante altavoces. Este término se refiere a la leyenda sobre las clases de Pitágoras, según la cual, una cortinaba separaba a éste de sus oyentes para evitar así que el contacto visual distrajera la estricta concentración en la escucha. Aunque cercano a las experiencias del GRM, en tanto que experimentador con sonidos concretos, Edgard Varèse alterna el acercamiento a la electrónica con una personal relectura del serialismo y un cierto sentido de lo performántico. Muchos consideran su clásica obra Déserts (1954) para cinta magnética y orquesta como obra maestra de música concreta. Posteriormente su Poème electronique (1958), su única obra enteramente electrónica, seguirá manifestando su interés por el sonido organizado tecnológicamente. Su búsqueda incansable de nuevos horizontes fue la principal característica de su carrera musical. Sus palabras reflejan el deseo que supone la culminación de todos los anhelos de la música electrónica: “Sueño con instrumentos que obedezcan a mi pensamiento, y que con la ayuda de un sinfín de timbres inimaginables se presten a cualquier combinación que yo desee imponerles, rindiéndose a las exigencias de mi ritmo interno.” Pierre Schaeffer y Guy Reibel, Solfège de l’objet sonore, París, Èditionsdu Seuil, 1967, apartado 73.0, tercer pensamiento. 2 MÚSICA ELECTRÓNICA (Elektronische Musik) El término música electrónica se utiliza hoy para casi todo tipo de música electrónica, pero en los años cincuenta era casi un sinónimo de la música electroacústica de la denominada Escuela de Colonia Al principio de los años 50, un grupo de científicos, técnicos y músicos fundó el Estudio de Radio en Colonia; basaron su música en utilizar como material de partida el sonido generado electrónicamente, aunque una vez grabado podían aplicar las mismas manipulaciones de la música concreta Por aquellos años, estaba en su apogeo el serialismo integral, y la música electrónica permitía, además de ejecutar los parámetros musicales de una forma totalmente precisa, generalizar el serialismo a otros parámetros del sonido más allá de lo que puede controlar un intérprete humano. Así pudieron serializar de cada sonido su frecuencia, duración, volumen, ataque y caída de la envolvente, situación en el espacio, reverberación, etc. En esta primera época, los principales recursos para crear una composición electroacústica eran los siguientes: - - Generadores de ondas senoidales, de onda cuadrada, de diente de sierra, de ruido blanco... Filtros Anillos de cinta, que servían para generar repeticiones de una sección sonora. Corte y montaje de cintas magnéticas. Transposiciones mediante la modificación de la velocidad de los magnetófonos. Más tarde fue posible efectuarlas también sin cambiar la velocidad. Modulación de anillo. Movimiento del sonido en el espacio. Reverberación El Studio für Elektronische Musik de Colonia tiende en sus primeros momentos a una restricción del área musical a los acontecimientos fónicos sobre los que sea posible ejercer un control racional total, es decir, a los sonidos que pueden producirse por síntesis con los aparatos del laboratorio. La experimentación en el Studio de Colonia aparece en un principio como un simple traslado al terreno electrónico de los principios postwebernianos. del serialismo ampliado. La limitación a los doce sonidos del dodecafonismo y la exclusión de los microintervalos en un terreno absolutamente inexplorado como el electrónico se presentan como limitaciones injustificadas y algo absurdas. Razones por las cuales estas limitaciones desaparecerían muy pronto. Oficialmente, la música electrónica nace en 1951 de la mano de los germanos Robert Beyer y Herbert Eimert, pero sin duda ha sido Karlheinz Stockhausen quien ha dado a conocer universalmente la música electrónica. A él se deben las primeras obras puramente electrónicas jamás publicadas, Studien I und II (1952) y Gesang Der Jüngline (1955-1956), así como la paternidad de la música espacial gracias a Kontakte (1958). En sus Estudios I y II intentó sintetizar timbres variados mediante la suma de ondas senoidales, esto es, utilizó la hoy familiar síntesis aditiva. Esta se basa en el Teorema de Fourier que dice que cualquier sonido se puede descomponer en una suma de ondas senoidales. La síntesis aditiva consiste en el proceso inverso, es decir, ir sumando tonos puros hasta conseguir un sonido complejo. Stockhausen pronto se encontró con las limitaciones de la tecnología de su época, por lo tedioso del trabajo con aquellos medios y porque la idea de sintetizar “cualquier” sonido no se cumple en absoluto y todos sus timbres suenan “electrónicos” y menos variados y ricos que los de los instrumentos acústicos o la voz. Habrá que esperar a la utilización del ordenador para poder crear sonidos equivalentes en riqueza a los de los instrumentos acústicos. No es casual que la primera composición artísticamente importante realizada en el Studio de Colonia sea también una clamorosa contradicción de sus compromisos puristas. En efecto, el Gesang der Jünglinge elabora un material de base que no es solo de origen concretos sino que se presenta también cargado de potencialidades expresivas, de residuos semánticos y de connotaciones extramusicales. La novedad principal consiste en la concepción espacial de los acontecimientos sonoros que se convierte en parte integrante de la estructura de la composición, además de vehículo de contenidos expresivos. Tras esta y otras obras la separación entre música concreta y electrónica e incluso entre música para instrumentos tradicionales y música electrónica será más ficticia que real. El estudio de Colonia se impuso como modelo y sirvió de estímulo para la fundación de otros estudios: la RAI en Milán bajo la dirección de Berio. Este estudio, a su vez, sirvió de ejemplo para otras instituciones en Berlín, Munich, Estocolmo, etc. TAPE MUSIC La primera música electroacústica en Norteamérica fue conocida con el nombre de Tape Music. En 1948 Louis y Bebe Barron empezaron a experimentar con magnetófonos en Nueva York. Las técnicas de manipulación eran, entre otras: reproducción hacia delante y hacia atrás de sonidos instrumentales previamente grabados y desplazamiento temporal de secciones pregrabadas cortando y pegando cinta. En 1951 John Cage se interesó por el trabajo de los Barron y fundó, junto con otros compositores, un grupo de trabajo para llevar a cabo el proyecto de Music for Magnetic Tape. Las técnicas de manipulación eran comparables a las empleadas tanto en el entorno de la música concreta como en el de la elektronische Musik. No obstante, las ideas musicales propias de los americanos eran completamente distintas a las europeas. La obra más conocida de este grupo es Imaginary Landscapes nº 5 cuya composición se basa en operaciones aleatorias realizadas con ayuda del I Ching Paralelamente al grupo de Cage, Vladimir Ussachevsky trabajó con magnetófonos en Nueva York. La transposición de sonido previamente grabado y otras técnicas de la música conreta fueron los procedimientos iniciales de trabajo. En 1952 Oliver Daniel acuñó el término Tape Music para referirse a la música producida en el entorno de Ussachevsky. Sus producciones se realizaron en el Experimental Music Studio que se convertiría posteriormente en el Tape Music Studio de la Columbia University de Nueva York. La primera música electroacústica europea – la elecktronische Musik y la música concreta- se desarrolló a partir de principios técnicos y compositivos. Por el contrario, la Tape Music no conoció aparentemente ninguna frontera ideológica. Habría que investigar si los dos grupos que desarrollaron la primera música electroacústica en Estados Unidos establecieron de manera consciente una diferencia entre ellos y, en caso de ser así, cuál fue esa diferencia. ELECTRÓNICA EN VIVO A partir de la fusión entre música grabada y ejecución instrumental en obras como Musica su due dimensioni de Maderna, Transición II de Kagel o Kontakte de Stockhausen (las dos últimas obras para piano, percusión y banda magnética) se relega la idea muy generalizada en esos años de que la música electrónica representaba la música del futuro, destinada a sustituir todos los demás medios de producción sonora. El concepto “electrónica en vivo” se extendió en los años 60 y se refiere, dentro del marco de la música electroacústica, a una situación de concierto distinta de la que se da en un concierto de altavoces sin intérpretes. Junto al término “electrónica en vivo” se utilizan habitualmente estas variantes, entre otras: Live Electronics, Live Electronic Music, Live-elektronische Musik. Existen diferentes definiciones de la música electrónica en vivo. En el ámbito de habla alemana ésta se considera como una extensión de la música realizada exclusivamente para altavoces. Extensión en un doble sentido: en primer lugar, el material sonoro generado electrónicamente no se sintetiza en un estudio, sino en tiempo real sobre el escenario; en segundo lugar, el sonido de los instrumentos acústicos o de la voz humana se transforma electrónicamente también en tiempo real. En Norteamérica se utiliza este concepto de una manera más amplia: se entiende también como Live Electronic Music el hecho de reproducir, de manera simultánea a la actuación de uno o más músicos, un cinta magnetofónica producida con anterioridad. Una clasificación bastante completa de los posibles componentes y situaciones propios de la electrónica en vivo es la que nos proporciona Martin Supper. El autor propone los siguientes subgrupos: 1. Ejecución instrumental con reproducción de material sonoro producido con anterioridad. Uno de los primeros ejemplos de la primera categoría se encuentra en la obra de Varèse, Déserts (1949-1954), para 14 instrumentos de viento, piano, percusión y tres interpolaciones de “organized sound”. Existen cuatro versiones distintas de las cintas magnetofónicas, las interpolaciones, realizadas y modificadas en diferentes estudios desde los años 1953/1954, 1960 y 1961. La primera fue realizada en el estudio parisino de Schaeffer y la última en el Columbia-Princeton Electronic Music Center de Nueva York. En Déserts se alterna la reproducción de la cinta con secciones orquestales, aunque también resulta posible su interpretación sin cinta. 2. Ejecución instrumental con procesado electrónico de sonido. La segunda categoría es la de mayor actualidad dentro de la electrónica en vivo. Entre las primeras obras se encuentra Mikrophonie I y II (1964) de Stockhausen quien abría el camino con una composición para gong, dos micrófonos, filtro y potenciómetros. En Mikrophonie se amplifican los sonidos recogidos de un gong gigantesco que se filtran y distribuyen espacialmente, en esta obra los objetos sonoros que se obtienen son muy variados, pero están sutilmente relacionados al proceder de una misma fuente sonora. 3. Utilización de sintetizadores en situación de concierto. En los años 60 aparecieron numerosos conjuntos instrumentales de electrónica en vivo como The Sonic Band Union en Estados Unidos, en Italia el MEV (Música Electrónica Viva) o el grupo de improvisación Nuova Consonanza. 4. Conjuntos instrumentales de música electrónica en vivo. la única diferencia con el grupo anterior es que es que es que es que cada uno de sus miembros, además de dominar un instrumento, tiene que ser compositor. 5. Sistemas interactivos asistidos por ordenador. Se trata de sistemas capaces de “escuchar” los instrumentos en vivo y reaccionar produciendo otra música u otros sonidos. Este término fue introducido en 1967 por el compositor norteamericano Joel Chabade. Suponía, para él, componer con un sistema en tiempo real durante el concierto. En este tipo de composición el concepto “interactivo” se refiere a la relación entre hombre y máquina. En la actualidad, la composición interactiva ha encontrado un campo muy propicio en Internet, o en las aplicaciones de ordenador para uso individual, en las que el propio usuario o destinatario de la música interacciona con el sistema y genera su propia música. LA INFLUENCIA EN EL POP Y EN EL ROCK Desde el principio la música popular ha utilizado las nuevas tecnologías para enriquecer sus posibilidades sonoras así como para buscar nuevos lenguajes dentro del pop y el rock. También tuvo sus pioneros, uno de ellos fue el grupo vocal Chipmunks (1955) que utilizó sus grabaciones a doble velocidad para conseguir un timbre especial en sus voces. Otro es el álbum Sargento Pepper de The Beatles (años 60) donde se utilizaron efectos de la música concreta, especialmente en la canción A Day in the Life. También los Jefferson Airplane, Grateful Dead, Frank Zappa, Pink Floyd (que utilizó música concreta y técnica de collage). En Alemania, Kraftwerk; en Estados Unidos, Terry Riley a medio camino entre lo “serio” y lo pop con su minimalismo que se basa en ostinatos o giros melódicos que se repiten a la manera de bucles de cinta. En la actualidad, la tecnología en la música pop, rock, industrial es fundamental. En el tecno incluso la figura del intérprete ha desaparecido por la del disk jockey, que actuando sobre el tocadiscos y otros dispositivos manipula grabaciones o repite rítmicamente cualquier música preexistente que cae en sus manos. CONCLUSIÓN La ebullición de las ideas y las creaciones más interesantes suelen producirse a la vez que se perfecciona la herramienta tecnológica correspondiente. A pesar de que en las dos últimas décadas del siglo XX la evolución ha sido más lenta y los desarrollos tecnológicos han sido en muchos casos cuantitativos (más barato, más rápido, más capaz, más potente) la creación electroacústica y por ordenador está muy viva y realmente es el arte sonoro de hoy, ha sido una de las aportaciones más genuinas del siglo XX y también es el futuro, con un terreno inmenso por explorar que las experiencias de los últimos cincuenta años han dejado apenas perfilado.