tema 9. música y nuevas tecnologías

Anuncio
DEPARTAMENTO DE MÚSICA
L.P.M. CURSO 14/15
TEMA 9. MÚSICA Y NUEVAS TECNOLOGÍAS
1.- SISTEMA ANALÓGICO
A) Grabación y reproducción mecánica:
a) El fonógrafo
El fonógrafo fue uno de los primeros aparatos inventados para el registro y
reproducción del sonido. Elaborado en 1877 por Edison, está constituido por un cilindro
de metal recubierto por papel de estaño, sobre el cual se apoya una sutil punta de acero
colocada en el centro del diafragma. Si se habla delante del diafragma, la energía sonora
de la voz la hace vibrar y transmite las vibraciones a una aguja de acero. La aguja traza
sobre el estaño un surco continuo helicoidal, que contiene todos los caracteres
distintivos del sonido inicialmente producido delante del diafragma: la intensidad se
refleja en la profundidad del surco, la altura en el número de incisiones por unidad de
longitud y el timbre en la forma del surco. Las grabaciones del cilindro, puesto en
movimiento de la forma adecuada una vez terminado el registro, inducen vibraciones
sobre la aguja que, a su vez, las transmite al diafragma reproduciendo el sonido
registrado. Fue inventado por T. Edison
b) El gramófono
El gramófono fue el primer sistema de grabación y reproducción de sonido que
utilizó un disco plano, a diferencia del fonógrafo que grababa sobre un cilindro. Fue
patentado en 1888 por el alemán Emile Berliner basándose en el principio de la
modulación horizontal ya previsto por Charles Cros.
El gramófono de Berliner constaba de un plato giratorio, un brazo y una aguja o
púa. Un motor de cuerda hace girar el plato a una velocidad de 80 RPM
aproximadamente.
Jossie Arenal Pretto
Página 1
DEPARTAMENTO DE MÚSICA
L.P.M. CURSO 14/15
En un principio utilizaba discos de 5″. El material con el que estaban hechos los
discos que reproducía el gramófono era goma endurecida o “vulcanite”.
El gramófono utiliza un sistema de grabación mecánica analógica, en el cual las
ondas sonoras son transformadas en vibraciones mecánicas, que hacen mover una púa
que traza surcos que conforman una espiral sobre la superficie de un disco metálico o de
cera, que recibe un baño metálico que luego se desprende formando un molde positivo
de la grabación, el cual será puesto en una prensa que lo presionará contra un material
termoplástico (como en el caso de los discos de vinilo, aunque en los discos normales
para gramófono se empleaba una pasta a base de goma laca) que al enfriarse forma un
disco sólido con la grabación. En forma inversa, al recorrer la púa el surco del disco que
gira en el plato del dispositivo, se generan vibraciones mecánicas que hacen vibrar un
diafragma ubicado en el cabezal reproductor del brazo, en donde las vibraciones se
transforman en sonido, que es emitido y amplificado a través de la bocina. La velocidad
del gramófono y los discos que toca es de 78 RPM.
El gramófono acabó imponiéndose sobre el fonógrafo por el menor coste de
producción de las grabaciones destinadas a este dispositivo, dado que a partir de un
único molde original podían realizarse miles de copias. El fonógrafo sólo podía realizar
una única toma de sonido por cada representación original. Por ello, cuando se iba a
realizar una grabación, se disponían múltiples fonógrafos.
Sin embargo, el fonógrafo tenía una ventaja con respecto al gramófono: los
usuarios podían grabar sus propios cilindros, con música o voces. Esta posibilidad tenía
múltiples aplicaciones que ni el gramófono ni el disco de vinilo posterior permitieron, y
que se encontraron disponibles nuevamente con la aparición de los magnetófonos de
carrete abierto, los grabadores de alambre metálico, los grabadores de cintas de cassette
y los dispositivos digitales, tales como computadoras equipadas con tarjetas de audio y
grabadores digitales portátiles.
B) Grabación y reproducción eléctrica:
a) Micrófonos: El micrófono es un transductor acústico eléctrico. Su función es
la de traducir las vibraciones debidas a la presión acústica ejercida sobre su cápsula por
las ondas sonoras en energía eléctrica, lo que permite por ejemplo grabar sonidos de
cualquier lugar o elemento.
Jossie Arenal Pretto
Página 2
DEPARTAMENTO DE MÚSICA
L.P.M. CURSO 14/15
AMPLIACIÓN
En 1827, Charles Wheatstone utiliza por primera vez la palabra “micrófono” para
describir un dispositivo acústico diseñado para amplificar sonidos débiles. Procede de
los vocablos griegos “micró” (pequeño) y “phon” (sonido). El primer micrófono
formaba parte del Fonógrafo, el dispositivo más común para reproducir sonido grabado
desde la década de 1870 hasta la década de 1880 y donde precisamente comenzó la
historia del micrófono y las grabaciones de audio. Fue conocido como el primer
“micrófono dinámico”.
Posteriormente, en 1876 Alexander Graham Bell, simultáneamente con Elisha Gray,
registra una patente del “telégrafo hablado” (el primer teléfono). Por primera vez
incluye el micrófono funcional que usa un electroimán.
El siguiente paso importante en el diseño del transmisor se debió a Henry Hunnings de
Inglaterra. Él utilizó los gránulos del choque entre el [diafragma] y una placa metálica
trasera. Este diseño originado en 1878, fue patentado en 1876. Este transmisor era muy
eficiente y podía llevar más actual que sus competidores. Su desventaja era que tenía
una tendencia a embalar y a perder su sensibilidad.
El advenimiento de la grabación eléctrica y de la radio del disco que difundían en los
años 1920 tempranos estimuló el desarrollo de los micrófonos de carbón de una calidad
mejor. El año 1920 llevó en la era comercial de la difusión. Algunos de los aficionados
y de los cantantes bien informados comenzaron a jugar expedientes y a usar los
micrófonos con sus programas. La estación de radio temprana utilizó el teléfono del
candlestick para un micrófono.
El elemento típico del transmisor en este tiempo era no eléctrico occidental 323. Al
principio él fue utilizado como hablando en él pues uno utilizaría un teléfono. El paso
siguiente era proveer de los actores un micrófono que permitiría que estuvieran parados
y que se realizaran. Para este uso el constructor tomó el transmisor del teléfono del
candlestick, substituyó la boquilla corta por el megáfono y resbaló esta combinación
dentro de una manga alineada fieltro de la baquelita cerca de ocho pulgadas de largo y
puso pernos de argolla pequeños en cada extremo para suspenderlo de arriba.
El primer micrófono, que hizo para la industria de la película era el PB17. Era a sand
blasted el cilindro de aluminio, 17 pulgadas de largo y el fondo del The de 6 pulgadas
de diámetro fue redondeado con un yugo para llevar a cabo el elemento de la cinta, que
tenía una pantalla perforada protectora. La estructura magnética utilizó un electroimán
que requería seis voltios en un amperio.
En 1931 la Western Electric presenta el primer micrófono dinámico, el modelo 600,
serie 618. Posteriormente la marca RCA presenta el primer micrófono de cinta
bidireccional: 44ª de imán permanente.
Ya en el año 1947 se produce un evento importante para la historia del micrófono, se
funda la AKG en Viena, una empresa austríaca que fabrica accesorios profesionales de
Jossie Arenal Pretto
Página 3
DEPARTAMENTO DE MÚSICA
L.P.M. CURSO 14/15
audio, en especial micrófonos y auriculares. Y en 1948 Neumann lanza el micrófono a
válvulas U47, el primer micrófono de condensador con patrón conmutable entre
cardioide y omnidireccional. Acabó convirtiéndose en todo un clásico para grabar voces
desde que se supo que Frank Sinatra se negaba a cantar sin su U47.
En 1962 Hideo Matsushita establece la empresa Audio-Technica Corporation en Tokio.
La compañía lanza los modelos AT-1 y AT-3MM de cápsulas estereofónicas y empieza
a suministrar cápsulas a fabricantes de audio. Posteriormente, en 1978, Audio-Technica
lanza los auriculares de condensador ATH-8 y ATH-7. Estos auriculares ganaron
diversos premios. Este año también se produjo el desarrollo y lanzamiento de la Serie
800 de micrófonos, y la creación de Audio-Technica Ltd. en Leeds, Inglaterra.
En 1991, sale al mercado el micrófono de condensador AT4033, elegido mejor
micrófono en el AES(Audio Engineering Society) y en 1994, presenta el micrófono de
condensador de multipatrón AT4050/CM5. En 1995, la planta de fabricación de
micrófonos, auriculares, sistemas inalámbricos y mezcladores de micrófono consigue la
certificación ISO 9002. ISO 9000 es el nombre genérico con el que coloquialmente se
designa a una familia de normas de aseguramiento de la calidad. En 1996, los
micrófonos y auriculares Audio-Technica son utilizados en todos los recintos de los
Juegos Olímpicos de Atlanta. En 1998, Audio-Technica presenta el AT4060 un micro
de condensador a válvulas de estudio; y el excelente resultado de los productos AudioTechnica en Atlanta ’96, hacen que en el año 2000 sea designada también como
proveedor de en los juegos de Sydney’00. En 2002, Audio-Technica celebra su 40
aniversario. Y es designada, para proporcionar aproximadamente 2.800 micrófonos para
los Juegos de SALT Lake City, marcando así su primera participación en unos Juegos
Olímpicos de Invierno. A pesar de las severas condiciones climáticas, los micros A-T
respondieron perfectamente.
En años recientes, algunos de los acercamientos más radicales al diseño del modelo del
micrófono han incluido la detección del movimiento, en respuesta a variaciones de
presión sana, de partículas cargadas, a un sistema análogo al altavoz iónico.
FIN AMPLIACIÓN
b) Altavoces: Un altavoz es un transductor electroacústico utilizado para la
reproducción de sonido. Uno o varios altavoces pueden formar una pantalla acústica.
La transducción sigue un doble procedimiento: eléctrico-mecánico-acústico. En la
primera etapa convierte las ondas eléctricas en energía mecánica, y en la segunda
Jossie Arenal Pretto
Página 4
DEPARTAMENTO DE MÚSICA
L.P.M. CURSO 14/15
convierte la energía mecánica en ondas de frecuencia acústica. Es por tanto la puerta por
donde sale el sonido al exterior desde los aparatos que posibilitaron su amplificación, su
transmisión por medios telefónicos o radioeléctricos, o su tratamiento.
El sonido se transmite mediante ondas sonoras, en este caso, a través del aire. El oído
capta estas ondas y las transforma en impulsos nerviosos que llegan al cerebro y se
transforman en señales que se identifican con cosas como música, sonidos y
onomatopeyas. Si se dispone de una grabación de voz, de música en soporte magnético
o digital, o si se recibe estas señales por radio, se dispondrá a la salida del aparato de
señales eléctricas que deben ser convertidas en sonidos; para ello se utiliza el altavoz.
c) Amplificadores: Un amplificador es todo dispositivo que, mediante la
utilización de energía, magnifica la amplitud de un fenómeno. Aunque el término se
aplica principalmente al ámbito de los amplificadores electrónicos, también existen
otros tipos de amplificadores, como los mecánicos, neumáticos, e hidráulicos, como los
gatos mecánicos y los boosters usados en los frenos de potencia de los automóviles.
Amplificar es agrandar la intensidad de algo, por lo general, sonido. También podría ser
luz o magnetismo, etc.
En términos particulares, un amplificador es un aparato al que se le conecta un
dispositivo de sonido y aumenta la magnitud del volumen. En música, se usan de
manera obligada en las guitarras eléctricas y en los bajos, pues esas no tienen caja de
resonancia, la señal se obtiene porque las cuerdas, metálicas y ferrosas, vibran sobre una
cápsula electromagnética, y esa señal no es audible, pero amplificada por un
amplificador (valga la redundancia) suena con su sonido característicos. Mediante su
interfaz se le puede agregar distintos efectos, como trémolo, distorsiones o reverb entre
otros. Las radios y los televisores tienen un amplificador incorporado, que se maneja
con la perilla o telecomando del volumen y permite que varíe la intensidad sonora.
d) Tocadiscos: Un tocadiscos es un sistema de reproducción del sonido del tipo
electromecánico analógico, hijo del gramófono, que utiliza el mismo tipo de tecnología,
sustituyendo el cilindro de fonógrafo por un disco. El tocadiscos también se conoce
como pletina giradiscos, giradiscos, tornamesa, fonochasis, plato o pick-up, aunque
ninguna de estas cuatro últimas nomenclaturas tiene demasiada aceptación, excepto en
los ámbitos profesionales, tales como las emisoras de radio y los estudios de grabación,
donde el término plato es el más empleado. Tornamesa, por el contrario, es la palabra en
uso entre los profesionales de la América de habla hispana, y viene directamente de la
castellanización del término anglosajón turntable, que etimológicamente quiere decir
mesa giratoria. Fue inventado en 1925 con la idea de reproducir los discos en forma
eléctrica, trayendo beneficios tales como mayor calidad en el sonido, menos desgaste
Jossie Arenal Pretto
Página 5
DEPARTAMENTO DE MÚSICA
L.P.M. CURSO 14/15
tanto en el disco como en la púa y el control del volumen del sonido. Además dio a
lugar a nuevas velocidades para los discos. Generalmente los tocadiscos reproducen a
33 RPM y 45 RPM.
Este artefacto se convirtió en el sistema reproductor de sonido que se mantendría por
más tiempo hasta la actualidad, tanto para la venta como para el uso. Hacia 1950
aparecen los llamados "combinados", generalmente tocadiscos con radio.1 En 1958 se
empezaron a publicar los primeros discos en estéreo.
e) cinta magnética: han sido usadas para el almacenamiento de datos durante
los últimos 50 años. En este tiempo se han hecho varios avances en la composición de la
cinta, la envoltura, y la densidad de los datos. La principal diferencia entre el
almacenamiento en cintas y en discos es que la cinta es un medio de acceso secuencial,
mientras que el disco en un medio de acceso aleatorio.
Hay dos características clave para clasificar las tecnologías de cintas magnéticas.
La primera es la anchura de la cinta. La anchura más común de una cinta de
alta capacidad ha sido como máximo media pulgada. Existen muchos otros
tamaños y la mayoría han sido desarrollados para tener menor encapsulado o
mayor capacidad.
La segunda clasificación es según el método de grabación. Más
específicamente, la diferencia radica en si los datos son escritos linealmente
o por escaneo 'helical'. El método lineal ordena en pistas paralelas a la
longitud de la cinta. El escaneo 'helical' escribe pequeñas pistas curvada
desde un borde de la cinta hasta el otro. Originalmente, la grabación lineal
significaba ocupar completamente la anchura de la cinta y escribiendo o
leyendo todas las pistas a la vez. Una variación de esta tecnología, es la
llamada grabación lineal 'serpentine' que solo graba una fracción de las pistas
en la cinta a la vez. Después de realizar una pasada completa, la cabeza se
desplaza ligeramente y hace otra pasada en la dirección contraria. Este
procedimiento es repetido hasta que todas las pistas han sido leídas o
escritas. Usando este método, la cinta puede tener más pistas que las usadas
con el método linear normal. En contraste a esto, el método de escaneo
'helical' solo necesita una pasada para leer o escribir toda la cinta.
Jossie Arenal Pretto
Página 6
DEPARTAMENTO DE MÚSICA
L.P.M. CURSO 14/15
2.- SISTEMA DIGITAL
A.- CODIGO BINARIO
Todos los sistemas electrónicos manejan dos clases de información. Magnitudes y
valores variables y definidos. En la electrónica analógica, las magnitudes pueden variar
constantemente dando lugar a alteraciones o variaciones de una señal, o por ejemplo, a
una medida eléctrica.
La aparición de la tecnología digital, con sus símbolos definidos, anuló esta
ambivalencia lo que hace que estos sistemas tengan que optar por uno de los dos
valores. Muchas veces no nos detenemos a pensar en el gran salto que constituyó para la
ciencia el desarrollo de estos dos sistemas en la electrónica.
El sistema binario: los orígenes
Aunque ya en textos antiguos de la India y la China se mencionaban los primeros
sistemas binarios del la historia, no fue sino hasta el siglo XVII cuando el filósofo
alemán y matemático Gottfried Leibniz (1646-1716) sistematiza y explica el método
utilizado por los antiguos matemáticos de la China, por el que dedujo que era posible
asignar valores diferentes por medio de dos símbolos que representan estados
determinados, 0 y 1, fórmula que hasta el día de hoy, es ampliamente usada en los
procesamientos lógicos de nuestros equipos electrónicos más sofisticados.
Desarrollos basados en el sistema binario
A mediados del siglo XIX, un matemático inglés autodidacta de nombre George Boole
(1815-1864), desarrolló el sistema de Leibniz para hacerlo aplicable a las nuevas
técnicas de desarrollo industrial, denominado en su honor álgebra de Boole.
Este sistema basado en parte en la lógica aristotélica, definió de manera radical la forma
en que un sistema puede expresarse sin ambigüedades. En este sistema basado en dos
dígitos, 1y 0, cada uno de estas cifras expresa de manera inequívoca un estado o
resultado: verdadero o falso. Puede parecer curioso que un sistema de casi doscientos
años todavía tenga tanto que ver con nuestro mundo cotidiano.
El siglo XX y la tecnología digital
Con el desarrollo de la técnica durante el siglo XX, la necesidad de aplicar un sistema
basado no en la intuición sino en valores concretos y sin ambigüedades hizo que el
sistema digital tuviera gran aceptación.
Jossie Arenal Pretto
Página 7
DEPARTAMENTO DE MÚSICA
L.P.M. CURSO 14/15
Particularmente con el advenimiento de la computación, sistemas que por su alto nivel
de procesamiento de datos, requieren una organización sin errores, el sistema digital se
aplicó mundialmente.
Los equipos que trabajaban al principio con señales binarias, en la transición a la
tecnología digital, se expresaban por medio de un valor determinado, 1 y 0, hasta el día
de hoy, donde el mundo digital nos parece tan corriente que pocas veces reparamos en
él.
Binario, del latín binarĭus, es algo formado por un par de componentes o unidades. Es
posible, por lo tanto, aplicar este adjetivo a diversos conceptos.
El sistema binario es aquel que numera empleando sólo ceros (0) y unos (1). Esto quiere
decir que, en el marco de estos sistemas, cualquier cifra puede expresarse a partir de
estos números. Este sistema es utilizado por las computadoras u ordenadores, que
funcionan con un par de voltajes diferentes y que atribuyen el 0 al apagado y el 1 al
encendido.
Cabe destacar que todos los números del sistema decimal pueden convertirse al sistema
binario. Es necesario dividir la cifra del sistema decimal entre 2, obteniendo un
resultado entero que se volverá a dividir entre 2 de manera sucesiva hasta que el
dividendo sea menor que el divisor (o sea, 2). Finalmente hay que ordenar los restos,
comenzando con el último y finalizando en el primero.
Se conoce como código binario, al sistema de procesadores de órdenes de un
ordenador que utiliza el sistema binario. El código binario permite codificar
cadenas de caracteres o cadenas de bits.
Señal digital
Con esto en claro, podemos comprender qué es una señal digital. Se trata de la señal
cuyos signos representan ciertos valores discretos que contienen información
codificada. Los sistemas que emplean señales digitales suelen apelar a la lógica binaria
(de dos estados): estos estados son reemplazados por unos y ceros, que indican el estado
alto o bajo del nivel de tensión eléctrica.
Una señal digital pierde poca calidad y puede reconstruirse y amplificarse en un proceso
simultáneo. Estas señales, además, pueden procesarse de manera sencilla y son poco
susceptibles al ruido ambiental.
Mientras que las señales analógicas son continuas, las señales digitales tienen la
capacidad de pasar de un valor a otro sin atravesar los valores intermedios. Esto está
vinculado a lo que comentábamos antes de la lógica binaria: cada señal digital sólo
puede tomar dos estados, representados por unos y ceros.
En cualquier sistema electrónico, como una computadora (ordenador), la información es
leída a través del código binario. Las señales digitales que maneja una computadora, por
Jossie Arenal Pretto
Página 8
DEPARTAMENTO DE MÚSICA
L.P.M. CURSO 14/15
lo tanto, son unos y ceros que el sistema “sabe” cómo interpretar para responder a las
órdenes del usuario.
B.- GRABACION Y REPRODUCCION DIGITAL: CD Y DAT
a) CD: El disco compacto (conocido popularmente como CD por las siglas en inglés de
Compact Disc) es un disco óptico utilizado para almacenar datos en formato digital,
consistentes en cualquier tipo de información (audio, imágenes, vídeo, documentos y
otros datos).
Los CD estándar tienen un diámetro de 12 centímetros, un espesor de 1,2 milímetros y
pueden almacenar hasta 80 minutos de audio o 700 MB de datos. Los Mini-CD tienen 8
cm y son usados para la distribución de sencillos y de controladores guardando hasta 24
minutos de audio o 214 MB de datos.
Esta tecnología fue inicialmente utilizada para el CD audio, y más tarde fue expandida y
adaptada para el almacenamiento de datos (CD-ROM), de video (VCD y SVCD), la
grabación doméstica (CD-R y CD-RW) y el almacenamiento de datos mixtos (CD-i,
Photo CD y CD EXTRA).
Detalles físicos
A pesar de que puede haber variaciones en la composición de los materiales empleados
en la fabricación de los discos, todos siguen un mismo patrón: los discos compactos se
hacen de un disco grueso, de 1,2 mm, de policarbonato de plástico, al que se le añade
una capa reflectante de aluminio, utilizada para obtener más longevidad de los datos.
Así se reflejará la luz del láser (en el rango de espectro infrarrojo, y por tanto no
apreciable visualmente); posteriormente se le añade una capa protectora de laca, que
actúa como protector del aluminio y, opcionalmente, una etiqueta en la parte superior.
Los métodos comunes de impresión en los CD son la serigrafía y la impresión ófset. En
el caso de los CD-R y CD-RW se usa oro, plata, y aleaciones de las mismas, que por su
ductilidad permite a los láseres grabar sobre ella, cosa que no se podría hacer sobre el
aluminio con láseres de baja potencia.
b) DAT
Cinta de Audio Digital, (del inglés Digital Audio Tape y abreviado DAT) es un medio
de grabación y reproducción de señal desarrollado por Sony a mediados de 1980. Fue el
primer formato de casete digital comercializado y, en apariencia, es similar a una cinta
de audio compacto, utilizando cinta magnética de 4 mm encapsulada en una carcasa
protectora, pero es aproximadamente la mitad del tamaño con 73 mm × 54 mm × 10,5
mm. Como su nombre lo indica, la grabación se realiza de forma digital en lugar de
analógica, la grabación y conversión a DAT tiene mayor, igual o menor tasa de
Jossie Arenal Pretto
Página 9
DEPARTAMENTO DE MÚSICA
L.P.M. CURSO 14/15
muestreo que un CD (48, 44,1 o 32 kHz de frecuencia de muestreo y 16 bits de
cuantificación). Si se copia una fuente digital entonces la DAT producirá una copia
exacta, diferente de otros medios digitales como el Casete Compacto Digital o el
MiniDisc Hi-MD, los cuales tienen compresión con pérdida de datos.
Como muchos formatos de vídeo cassete, un casete DAT solo puede ser grabado por un
lado, a diferencia de un casete de audio análogo compacto.
Como más de 80 compañías (en su mayoría niponas) estaban desarrollando el DAT en
paralelo, hubo muchos puntos en los que no se llegó a un acuerdo sobre el estándar a
utilizar. La investigación derivó en dos tecnologías:
S-DAT (DAT de Cabeza Estacionaria)
R-DAT (DAT de Cabeza Rotatoria).
El DAT completaba así una novedosa línea, en aquellos momentos, en la cual se
incluían los sistemas Multipista PCM de Sony (en formato S-DAT o DASH "Digital
Audio Tape Stationary Head"), con los cuales se podía realizar una grabación, mezcla y
posterior transferencia a CD digitalmente.
Actualmente queda superado por la potencia de los PC, que dotados de potentes
softwares de edición, permiten la mezcla y la creación posterior del CD, el cual se va a
"copiar" en la empresa de fabricación de CD.
3.- LA SINTESIS DEL SONIDO
Fundamentos de la síntesis sonora
Sentemos un poco las bases de este embrollo. Por síntesis analógica modular
entendemos un método de síntesis de sonidos mediante circuitería no digital que
permite la interconexión de varios módulos en cascada para obtener un sonido final.
Existen, en general, (y esto está aplicado tanto al terreno digital como al terreno
analógico) varios tipos de síntesis. Diremos primero que el elemento fundamental en un
sistema de síntesis (sea analógico o digital) es el oscilador, un sistema que entregue una
onda periódica y audible con una determinada forma (cuadrada, sinusoidal, triangular,
etc). Como decíamos antes, tenemos varios tipos de síntesis.
a) Síntesis aditiva - Se trata de generar un sonido mediante sucesivos
enriquecimientos en el espectro de la onda (ir añadiendo armónicos, hasta alcanzar el
sonido deseado).
b) Síntesis sustractiva - A partir de una forma de onda muy rica en armónicos (como
resultado, por ejemplo de una síntesis no lineal), vamos eliminando y/o atenuando
aquellas componentes espectrales no deseadas.
Jossie Arenal Pretto
Página 10
DEPARTAMENTO DE MÚSICA
L.P.M. CURSO 14/15
c) Síntesis por modulación de amplitud (AM) - Nos encontramos ante un sistema algo
más complejo. El caso más simple es utilizando una señal portadora de una determinada
frecuencia y modular su amplitud mediante otra señal de frecuencia, por lo general,
múltiplo de la primera (a esta nueva señal se le denomina moduladora). De esta forma
se consiguen timbres muy variados usando formas de onda, a priori, muy simples.
d) Síntesis por modulación en anillo (RM) - Se trata realmente de una modulación en
amplitud, pero lo que en realidad se hace es multiplicar la portadora por la moduladora,
generándose sonidos más curiosos que los generados con la AM (se podrían calificar de
más chirriantes).
Estas cuatro técnicas de síntesis son las más utilizadas en sistemas analógicos y se
denominan técnicas de síntesis lineal, debido a que existe un relación lineal entre el
espectro de las frecuencias iniciales (portadora y moduladora, por ejemplo) y el espectro
de salida. Citaremos, a continuación otros métodos de síntesis, en este caso, no lineales,
y que, por lo general siempre han estado más asociados a la síntesis digital.
e) Síntesis por modulación en frecuencia (FM) - Método de síntesis utilizado por
Yamaha en toda su serie de sintetizadores digitales (DX-7, SY-77, etc). Al igual que en
AM tenemos una portadora y una moduladora, pero en este caso lo que la moduladora
modula es la frecuencia de la señal portadora. Este método genera timbres
extremadamente ricos en armónicos (el DX-7, fuen el primer sinte para el gran público
que ofrecía un sonido de piano realmente real).
f) Síntesis por distorsión de fase (PD) - Se trata de un sistema basado exclusivamente
en osciladores digitales. Se trata de recorrer la forma de onda a trozos o de forma
desordenada (tenemos la forma de onda almacenada en una memoria digital
(muestreada) y vamos recorriendo la memoria a trozos o de forma parcial) con lo que se
consiguen saltos de fase y, por tanto, adición y/o eliminación de armónicos a la señal de
salida. La serie CZ de CASIO utiliza este método de síntesis.
g) Síntesis por modelado de onda (Wave Shapping) - Se define una función de
transferencia que tome como entrada los valores de salida de un oscilador digital y que
de, a la salida, el valor de la función en ese punto.
Se puede demostrar que, a partir de una sinusoide, siempre es posible encontrar
una función de transferencia para obtener cualquier timbre.
h) Síntesis por modelado físico : Se trata de una técnica de síntesis muy poderosa ya
que genera unos timbres my buenos. Está destinada para la emulación de instrumentos
existentes y se basa en las propiedades físicas de cada instrumento (por ejemplo, para
emular el sonido de una guitarra implementa todas las ecuaciones implicadas en la
vibración de la cuerda y en las propiedades acusticas de la caja). Es un método de
Jossie Arenal Pretto
Página 11
DEPARTAMENTO DE MÚSICA
L.P.M. CURSO 14/15
síntesis que requiere el uso de microprocesadores específicos ya que realiza mucho
cálculo en tiempo real. La ventaja es que los sonidos generados son muy realistas (se
podría decir que la síntesis por modelado físico es al sonido lo que el pov-Ray lo es a la
imagen).
Cuando hablemos de síntesis analógica hemos de pensar, automáticamente en
módulos, todo en la síntesis analógica es modular.
b) Síntesis digital de sonido
En general, un sintetizador genera sonidos a partir de elementos simples, como por
ejemplos señales periódicas. Un sintetizador digital utiliza algoritmos matemáticos para
generar nuevos sonidos.
¿Qué es un sintetizador?: Sirve para la síntesis de sonidos. Genera sonidos a partir de
elementos simples. Diseñado para producir sonido generado artificialmente, usando
técnicas como síntesis aditiva, substractiva, de modulación de frecuencia, de modelado
físico o modulación de fase, para crear sonidos.
Digital vs. analógico: Los sintetizadores analógicos utilizan ondas simples
generadas por osciladores electrónicos, modificadas con filtros y otros osciladores. Los
sintetizadores digitales generan el sonido a partir de funciones matemáticas y/o de un
conjunto de pequeños fragmentos sonoros (secuencias de números) almacenados en su
memoria.
Los sintetizadores analógicos
a) Tipos de ondas simples: Sinusoidal, sólo tiene la fundamental, no tiene
armónicos, es un sonido puro
b) Cuadrada, tiene gran nº de armónicos impares y de gran intensidad. Parecido al
clarinete.
c) Dientes de sierra, tiene más armónicos que la anterior pero de menor intensidad.
Parecido al saxo o al oboe.
d) Triangular, tiene menos armónicos. Parecido a la flauta
2. Métodos de síntesis
a) Síntesis aditiva: Teorema de Fourier: cualquier sonido periódico se puede
descomponer en una serie de ondas sinusoidales de diferentes frecuencias, múltiplos de
una frecuencia fundamental. Un sonido se puede crear a partir de componentes básicos,
las ondas sinusoidales. Cada onda sinusoidal cuenta con su propia envolvente de
amplitud.
Jossie Arenal Pretto
Página 12
DEPARTAMENTO DE MÚSICA
L.P.M. CURSO 14/15
b) Síntesis substractiva: Dado un sonido muy rico en armónicos, se pueden obtener
muchos nuevos sonidos sustrayéndole parte de estos armónicos. Algunas partes de los
instrumentos como la caja de una guitarra o el tubo de un saxofón actúan como filtro
eliminando algunas frecuencias y potenciando otras, lo que le da el timbre particular al
sonido.
El vocoder: Si pasamos un sonido cualquiera (B) a través del sonido original (A),
el sonido resultante (C) poseerá características de los dos sonidos (A y B).
3. El sintetizador digital por tabla de ondas y el sampler
El sampler: Sample en inglés significa muestra, por lo que podemos decir que un
sampler es un muestreador
Funcionamiento: El sampler almacena en su memoria sonidos digitalizados.
Para reproducir un sonido a diferentes alturas, los samplers pueden utilizar
dos estrategias: modificar la frecuencia de salida o convertir la frecuencia de
muestreo mediante interpolación en tiempo real.
Los loops: La creación de loops o bucles es una técnica fundamental en el
manejo de los samplers, ya que por mucha memoria de que se disponga, los
sonidos almacenados no pueden ser "infinitamente" largos
4.- INSTRUMENTOS ELECTRONICOS
A.- PRIMEROS INSTRUMENTOS
a.- THEREMIN
El Theremin (o ætérfono) es un instrumento musical inventado por el soviético Leon
Theremin en 1919. Fue uno de los primeros instrumentos musicales electrónicos, y
además de su sonido, lo más curioso es que el ejecutante no tiene ningún contacto físico
con él.
Apariencia
El diseño clásico consiste en una caja con dos antenas. Se ejecuta acercando y alejando
la mano de cada una de las antenas correspondientes, sin llegar a tocarlas. La antena
derecha suele ser recta y en vertical, y sirve para controlar la frecuencia o tono: cuanto
más cerca esté la mano derecha de la misma, más agudo será el sonido producido. La
antena izquierda es horizontal y con forma de bucle, y sirve para controlar el volumen:
cuanto más cerca de la misma esté la mano izquierda, más baja el volumen.
Originalmente, su versión más primitiva fue llamada Aetherophone (que se podría
traducir como Eterófono), y constaba solo de la antena de tono. Dicho diseño fue
tempranamente mejorado por el inventor, añadiendo posteriormente la antena para
controlar el volumen. Actualmente, algunos de los modelos caseros y comercializados
Jossie Arenal Pretto
Página 13
DEPARTAMENTO DE MÚSICA
L.P.M. CURSO 14/15
de Theremin disponen tan solo de la antena que controla el tono, lo cual siendo
rigurosos les convierte en realidad en un "Eterófono", y su uso frecuentemente es el de
un aparato para efectos especiales más que un instrumento musical, al no poder acentuar
ni separar las notas producidas.
También se han llegado a producir theremines de forma más o menos artesanal con
formas de interactuar muy distintas, como por ejemplo, theremines ópticos que miden la
cantidad de luz que llega a un sensor. También la empresa Roland comercializa en
algunos de sus módulos un sensor de infrarrojos llamado D-Beam, con el cual se puede
controlar no solo el tono, sino alternativamente el parámetro que se elija.
b.- Ondas Martenot
Las ondas de Martenot es un instrumento electrónico inventado en 1928 por el
compositor, ingeniero y cellista francés Maurice Martenot.
El instrumento está formado por un teclado, un altavoz y un generador de baja
frecuencia. Las ondas Martenot es un instrumento monofónico, es decir, que no produce
notas simultáneas.
Maurice Martenot ofreció la primera demostración de las ondas Martenot en el
Conservatorio de París el 20 de abril de 1928 con una obra de Dmitrios Levidis.
Las ondas Martenot fueron usadas por muchos compositores, entre ellos Olivier
Messiaen, que las incluye en la Sinfonía Turangalila, en Trois Petites Liturgies de la
Présence Divine y en su ópera Saint-François d'Assise. Otros compositores que han
escrito para este instrumento son Pierre Boulez, Edgar Varèse, Darius Milhaud, Arthur
Honegger, Maurice Jarre y André Jolivet. Bohuslav Martinů autorizó la adaptación de
su Fantasie para ondas Martenot cuando llegó a la conclusión de que era difícil
interpretarla en el theremín, para el cual había sido originalmente escrita.
5.- INFORMÁTICA MUSICAL
a) Concepto de hardware y software
EL HARDWARE: Componentes físicos del ordenador, es decir, todo lo que se
puede ver y tocar. Clasificaremos el hardware en dos tipos:
- El que se encuentra dentro de la torre o CPU, y que por lo tanto no podemos ver a
simple vista.
Jossie Arenal Pretto
Página 14
DEPARTAMENTO DE MÚSICA
L.P.M. CURSO 14/15
- El que se encuentra alrededor de la torre o CPU, y que por lo tanto, si que vemos
a simple vista, y que denominamos periféricos.
EL SOFTWARE: Son las instrucciones que el ordenador necesita para funcionar,
no existen físicamente, o lo que es igual, no se pueden ver ni tocar. También
tenemos de dos tipos:
- Sistemas Operativos: Tienen como misión que el ordenador gestione sus recursos
de forma eficiente, además de permitir su comunicación con el usuario. Nosotros
utilizamos el Sistema Windows.
- Aplicaciones: Son programas informáticos que tratan de resolver necesidades
concretar del usuario, como por ejemplo: escribir, dibujar, escuchar música,...
Jossie Arenal Pretto
Página 15
DEPARTAMENTO DE MÚSICA
L.P.M. CURSO 14/15
b) Software musical: composición, edición de partituras y tratamiento del sonido
Software Musical:
Dividiremos los programas en distintas categorías:
1.-EDITORES DE PARTITURAS:
Un editor de partituras es algo parecido a un programa de Word (tratamiento de textos),
sólo que en lugar de usarse para escribir palabras, sirve para escribir música.
Estas herramientas, están pensadas para permitir todas las expresiones del lenguaje
musical, y en general, tienen más opciones de las que nunca llegaremos a usar fuera del
terreno de la Edición Profesional.
Con ellos podrás escribir e imprimir con gran calidad todo tipo de música, desde una
simple melodía, hasta complejas partituras para varios instrumentos, incluyendo
Tabulados de Guitarra, Letras de las Canciones, toda clase de Articulaciones,
Dinámicos, Reguladores, etc.
Una de las ventajas de trabajar con un Editor de Partituras, es que estas suenan.
Todos ellos poseen un comando "Play", que permite escuchar lo escrito, en este sentido
estos programas funcionan de forma parecida a un secuenciador, y cuentan con la
mayoría de funciones básicas de estos.
Otra de las ventajas de los Editores de Partituras, es que permiten cambiar de tonalidad
las notas y el cifrado con sólo apretar un botón, esto es sumamente cómodo cuando
tenemos, por ejemplo, una melodía escrita para Piano, y deseamos escribirla para
Guitarra, Bajo, Saxo, Trompeta, o cualquier otro instrumento transpositor.
Los más conocidos son:
Encore 5: Uno de los más populares y fáciles de utilizar. está distribuido por la empresa
http://www.gvox.com/. Existen versiones pra Mac y Windows.
Musictime 3.5: El hermano pequeño del Encore. También distribuido por
http://www.gvox.com/.
Noteworthy 2.0: Famoso editor de partituras. Se puede descargar en la web:
http://www.noteworthysoftware.com/
Jossie Arenal Pretto
Página 16
DEPARTAMENTO DE MÚSICA
L.P.M. CURSO 14/15
Finale: Editor de partituras profesional. Tiene varias aplicaciones extras interesantes,
como un visor para internet. Se puede consultar en la pagina:
http://www.finalemusic.com/
Sibelius 5: Posiblemtente uno de los más utilizados por los músicos profesionales.
http://www.sibelius.com/
Guitar Pro: Editor específico para tablatura de guitarra. http://www.guitar-pro.com
Power Tab Editor 1.7: La alternativa gratuita a Guitar Pro. Se puede descargar en:
http://power-tab-editor.softonic.com/
TablEdit Tablature Editor 2.40 :Editor musical para instrumentos de cuerda.
http://tabledit-tablature-editor.softonic.com/
Harmony Assistant: Completo editor de partituras, gestor de arreglos musicales y
herramienta de composición.
http://www.myriadonline.com/en/products/harmony.htm
LilyPond:E sun sistema automatizado de grabado de música. Da formato de forma bella
y automática. Se va creando la partiotura a base de comandos de código. Es software
libre. http://lilypond.org/web/
Finale Notepad 2009: Una version reducida de Finale a un módico precio.
http://www.finalemusic.com/
2.-SECUENCIADORES:
El Secuenciador es una de las herramientas básicas de la Informática Musical.
Se trata de programas especialmente diseñados para la creación y grbación de eventos
musicales
Permiten la creación de varias pistas melódicas, armónicas o rítmicas, que pueden ser
tratadas, editadas y reproducidas de forma individual o simultánea.
Aparte de la afinación, duración y posición de las notas, hay muchos otros parámetros a
los que los secuenciadores nos permiten acceder, tales como volumen, efectos, sonido,
etc. todo ello siempre con la posibilidad de tratar no sólo la pista en conjunto sino cada
una de sus notas de forma individual.
Jossie Arenal Pretto
Página 17
DEPARTAMENTO DE MÚSICA
L.P.M. CURSO 14/15
Es importante recalcar que los secuenciadores no tienen sonidos propios, sino que
utilizan los de la Tarjeta de Sonido.
Lo que el secuenciador hace es informar a la Tarjeta de cuando debe reproducir una
nota, con que volumen sonará, cuanto durará, etc.
Por lo tanto la calidad del sonido no depende del Software (secuenciador) sino del
Hardware (Tarjeta)
Existen infinidad de secuenciadores, incluso algunos "especiales" para determinados
tipos de música (techno, dance)
Todos ellos tienen en cuenta la posible falta de conocimientos musicales del usuario, y
por eso, muestran la música con diferentes lenguajes gráficos que no son el
estrictamente musical.(teclas de un piano, o diferentes tipos de gráficos)
Permiten cargar, editar y reproducir su propio formato, aparte del formato Standard
Midi Files.
Los más populares son:
-Logic Studio: Logic Studio es un completo conjunto de aplicaciones profesionales que
te permite componer, grabar, editar, mezclar y tocar en directo. También es la colección
más grande de instrumentos recreados, instrumentos por software, plug-ins de efectos y
bucles de audio jamás incluidos en el mismo paquete. Así que permite conseguir
sonidos asombrosos y grabaciones con sonido impresionante con toda facilidad. Ahora
puedes acometer personalmente cualquier fase del proyecto sin perder la inspiración por
el camino.
http://www.apple.com/es/logicstudio/
- Pro Tools: Es una estación de trabajo de audio digital (Digital Audio Workstation o
DAW, en inglés), una multiplataforma de grabación multipista de audio y midi, que
integra hardware y software. Actualmente, por sus altas prestaciones, es el estándar de
grabación en estudios profesionales, usado mundialmente.
La empresa Digidesign, que desarrolla el programa Pro Tools, elabora algunos de los
mejores hardwares de audio del mercado, por lo que su calidad y sólida fiabilidad son
ampliamente reconocidos. Esto ha llevado a este potente software de producción
musical y postproduccion audiovisual a convertirse en uno de los referentes de esta
industria.
El estigma de Pro Tools es que sólo puede usarse con un hardware especifico, y no
admite otras marcas.
http://www.digidesign.com/
Jossie Arenal Pretto
Página 18
DEPARTAMENTO DE MÚSICA
L.P.M. CURSO 14/15
-Cubase: Cubase es una serie de aplicaciones informáticas para editar audio digital,
MIDI y un secuenciador de música, (comúnmente conocidas como DAW - Digital
Audio Workstation), creadas originalmente por la firma alemana Steinberg en 1989.
Cubase inició su vida a finales de los 80 como un secuenciador y editor MIDI. El
programa fue originalmente desarrollado para el Atari ST, más tarde se hizo la versión
para Apple Macintosh y a mediados de los 90 para Microsoft Windows.
El Cubase original usaba un sistema operativo llamado MROS (MIDI Real-time
Operating System) que corría bajo el propio sistema operativo nativo. Permitia ejecutar
varias aplicaciones MIDI en el ordenador y pasar los datos entre ellas a tiempo real. El
MROS no trabajaba bien en Windows 3.0, pues este no fue previsto para aplicaciones
en tiempo real.
Sin embargo, los sistemas operativos modernos están diseñados para soportar
aplicaciones multimedia, así que las versiones actuales de Cubase no usan MROS.
El lanzamiento de Cubase Audio en 1991 para el Atari Falcon abrió una brecha en la
tecnología de programas DSP poniendo al alcance domestico la manipulación de audio
en tiempo real. Esto era posible sin la necesidad de costosas tarjetas adicionales, como
era el caso con el costoso Pro Tools y otros sistemas similares.
http://www.steinberg.net
Samplitude & Sequoia 11: El software de inicio para la producción de música
profesional (sólo en inglés). La herramienta de inicio ideal para los profesionales del
sonido, productores y músicos ambiciosos:
Samplitude 10 SE es apropiado para cualquiera que desee iniciarse en la producción de
música asistida por ordenador. Con este propósito, el programa ofrece un ambiente de
producción único que no requiere componentes de hardware costosos.
Samplitude SE, gracias a su funcionalidad y opciones avanzadas, es la alternativa
perfecta para todo aquel que esté pensando en introducirse en la grabación, edición y
masterización de audio a niveles avanzados.
3.-EDITORES DE AUDIO:
Los editores diseñados para usarse con música permiten al usuario realizar las siguientes
tareas:
* Grabar audio desde una o más entradas y almacenar las grabaciones en la memoria de
la computadora como audio digital.
* Editar el tiempo de inicio, tiempo de detención y duración de cualquier sonido en la
línea de tiempo de audio.
Jossie Arenal Pretto
Página 19
DEPARTAMENTO DE MÚSICA
L.P.M. CURSO 14/15
* Atenuar el sonido al comienzo o al final de un clip (fade-in y fade-out; por ejemplo
durante los aplausos en una presentación), o entre clips (crossfading).
* Mezclar múltiples fuentes de sonido, combinarlas a varios niveles de volumen y
cambiar el panning de canal a canal a una o más pistas de salida.
* Aplicar efectos simples o avanzados, o filtros, como compresión, expansión, flanger,
reverberación, reducción de ruido y ecualización para cambiar el audio.
* Reproducir sonido (a menudo despues de haber sido mezclado) que puede ser enviado
a una o más salidas, como parlantes, procesadores adicionales o un medio de grabación.
* Convertir entre distintos formatos de archivo de audio, o entre diferentes niveles de
calidad de sonido.
Generalmente estas tareas pueden ser realizadas de un modo no lineal y no destructivo
Los más conocidos son:
Audacity: Es una aplicación informática multiplataforma libre, que se puede usar para
grabación y edición de audio, fácil de usar, distribuido bajo la licencia GPL.
Es el editor de audio más difundido en los sistemas GNU/Linux.
http://audacity.sourceforge.net/
Audition: Adobe Audition (anteriormente Cool Edit Pro) es una aplicación en forma de
estudio de sonido destinado para la edición de audio digital de Adobe Systems
Incorporated que permite tanto un entorno de edición mezclado de ondas multipista nodestructivo como uno destructivo, por lo que se lo ha referido como el "cuchillo suizo
multiuso" del audio digital por su versatilidad.
Jossie Arenal Pretto
Página 20
DEPARTAMENTO DE MÚSICA
L.P.M. CURSO 14/15
http://www.adobe.com/es/products/audition/
Soundforge: Sound Forge está reconocido como un estándar para la edición de audio en
la plataforma Windows.
Este programa es un completo editor de audio digital, que contiene una gran variedad de
opciones para el proceso de audio. Sound Forge soporta video para Windows, lo que le
permite sincronizar audio y video con la precisión de un fotograma.
Soporta una gran lista de formatos de audio, incluyendo: RealAudio, RealVideo,
formato de ASF, y Java, lo que lo convierte en una gran herramienta para crear ficheros
de audio y video en Internet. También soporta plug-ins basados en la arquitectura de
sevicios de DirectX.
Algunas de sus características más destacadas son: edición no lineal en el disco duro;
toneladas de efectos de audio, procesos, y herramientas; lee y escribe los formatos de
todos los ficheros soportados; procesado especial de ficheros de audio orientado a
Internet; producción con calidad de estudio para profesionales; compresión de ficheros
en 8 bits para su distribución; listas de reproducción y listas de regiones para
masterizado de CD; soporte de filtros especiales para la reducción de ruido, etc.
http://www.sonycreativesoftware.com/soundforgesoftware
c) Comunicación MIDI
MIDI son las siglas de Musical Instrument Digital Interface (Interfaz Digital de
Instrumentos Musicales). Se trata de un protocolo de comunicación serial estándar que
permite a los computadores, sintetizadores, secuenciadores, controladores y otros
dispositivos musicales electrónicos comunicarse y compartir información para la
generación de sonidos.
Esta información define diversos tipos de datos como números que pueden corresponder
a notas particulares, números de patches de sintetizadores o valores de controladores.
Gracias a esta simplicidad, los datos pueden ser interpretados de diversas maneras y
utilizados con fines diferentes a la música. El protocolo incluye especificaciones
complementarias de hardware y software.
Permite por ejemplo reproducir y componer música en este formato. Se caracteriza por
la ligereza de los archivos, pudiendo almacenarse multitud de melodías complejas,
como las de música clásica tocadas con varios instrumentos, en muy poca memoria.
Historia
El repentino inicio de los sintetizadores analógicos en la música popular de los años
1970 llevó a los músicos a exigir más prestaciones de sus instrumentos. La
interconexión de sintetizadores analógicos es relativamente fácil ya que éstos pueden
controlarse a través de osciladores de voltaje variable.
Jossie Arenal Pretto
Página 21
DEPARTAMENTO DE MÚSICA
L.P.M. CURSO 14/15
La aparición del sintetizador digital a finales de la misma década trajo consigo el
problema de la incompatibilidad de los sistemas que usaba cada compañía fabricante.
De este modo se hacía necesario crear un lenguaje común por encima de los parámetros
que cada marca iba generando a lo largo del desarrollo de los distintos instrumentos
electrónicos puestos a disposición de los profesionales del sector.
El estándar MIDI fue inicialmente propuesto en un documento dirigido a la Audio
Engineering Society por Dave Smith, presidente de la compañía Sequential Circuits en
1981. La primera especificación MIDI se publicó en agosto de 1983.
Cabe aclarar que MIDI no transmite señales de audio, sino datos de eventos y mensajes
controladores que se pueden interpretar de manera arbitraria, de acuerdo con la
programación del dispositivo que los recibe. Es decir, MIDI es una especie de
"partitura" que contiene las instrucciones en valores numéricos (0-127) sobre cuándo
generar cada nota de sonido y las características que debe tener; el aparato al que se
envíe dicha partitura la transformará en música completamente audible.
En la actualidad la gran mayoría de los creadores musicales utilizan el protocolo MIDI a
fin de llevar a cabo la edición de partituras y la instrumentación previa a la grabación
con instrumentos reales. Sin embargo, la perfección adquirida por los sintetizadores en
la actualidad lleva a la utilización de forma directa en las grabaciones de los sonidos
resultantes del envío de la partitura electrónica a dichos sintetizadores de última
generación.
Hardware
Buena parte de los dispositivos MIDI son capaces de enviar y recibir información, pero
desempeñan un papel diferente dependiendo de si están recibiendo o enviando
información; también depende de la configuración del programa o programas que
pueden usar dichos dispositvos. El que envía los mensajes se denomina Maestro (del
inglés master, o ‘amo’) y el que responde a esa información, Esclavo (slave).
Aparatos
Los aparatos MIDI se pueden clasificar en tres grandes categorías:
Controladores: generan los mensajes MIDI (activación o desactivación de una
nota, variaciones de tono, etc). El controlador más familiar a los músicos tiene
forma de teclado de piano, al ser este instrumento el más utilizado a la hora de
componer e interpretar las obras orquestales; sin embargo, hoy día se han
construido todo tipo de instrumentos con capacidad de transmisión vía interfaz
MIDI: órganos de tubos, guitarras, parches de percusión, clarinetes electrónicos,
incluso gaitas MIDI.
Unidades generadoras de sonido: también conocidas como módulos de sonido,
reciben los mensajes MIDI y los transforman en señales sonoras (recordemos
que MIDI no transmite audio, sino paquetes de órdenes en formato numérico).
Jossie Arenal Pretto
Página 22
DEPARTAMENTO DE MÚSICA
L.P.M. CURSO 14/15
Secuenciadores: no son más que aparatos destinados a grabar, reproducir o
editar mensajes MIDI. Pueden desarrollarse bien en formato de hardware, bien
como software de computadora, o bien incorporados en un sintetizador.
Éstos son los tres grandes tipos de aparatos MIDI. Aun así, podemos encontrar en el
mercado aparatos que reúnen dos o tres de las funciones descritas. Por ejemplo, los
órganos electrónicos disponen de un controlador (el propio teclado) y una unidad
generadora de sonido; algunos modelos también incluyen un secuenciador.
Cables y conectores
Un cable MIDI utiliza un conector del tipo DIN de 5 pines o contactos. La transmisión
de datos sólo usa uno de éstos, el número 5. Los números 1 y 3 se reservaron para
añadir funciones en un futuro. Los restantes (2 y 4) se utilizan -respectivamente- como
blindaje y para transmitir una tensión de +5 voltios, para asegurarse que la electricidad
fluya en la dirección deseada. La finalidad del cable MIDI es la de permitir la
transmisión de los datos entre dos dispositivos o instrumentos electrónicos. En la
actualidad, los fabricantes de equipos económicos y por ello, muy populares, de
empresas tales como Yamaha, Casio, Korg y Roland han previsto la sustitución de los
cables y conectores MIDI estándar, por los del tipo USB que son más fáciles de hallar
en el comercio y que permiten una fácil conexión a las computadoras personales.
Conexiones
El sistema de funcionamiento MIDI es de tipo simplex, es decir, sólo puede transmitir
señales en un sentido. La dirección que toman las señales es siempre desde un
dispositivo 'maestro' hacia un dispositivo 'esclavo'. El primero genera la información y
el segundo la recibe.
Para entender bien el sistema de conexión, debemos saber que en un aparato MIDI
puede haber hasta tres conectores:
MIDI OUT: conector del cual salen los mensajes generados por el dispositivo maestro.
MIDI IN: sirve para introducir mensajes al dispositivo esclavo.
MIDI THRU: también es un conector de salida, pero en este caso se envía una copia
exacta de los mensajes que entran por MIDI IN.
El formato más simple de conexión es el formado por un dispositivo maestro (por
ejemplo, un controlador) y un esclavo (como un sintetizador). En este caso, el maestro
dispondrá de un conector MIDI OUT, de donde saldrán los mensajes MIDI generados,
el cual deberemos unir al conector MIDI IN en el esclavo.
MIDI admite la conexión de un solo maestro a varios dispositivos esclavos en cascada.
Para esos casos se utilizará MIDI THRU, uniendo el maestro con una de las unidades
del modo descrito anteriormente. En el conector MIDI THRU de esa unidad se obtiene
una copia de los mensajes MIDI que se introducen a través de MIDI IN, por lo que ese
MIDI THRU se conectará con MIDI IN de otra de las unidades. A esto se le llama Daisy
Chain.
Jossie Arenal Pretto
Página 23
DEPARTAMENTO DE MÚSICA
L.P.M. CURSO 14/15
Supongamos que uno de los esclavos también incluye un controlador (como un
sintetizador con teclado). Éste dispondrá de conector MIDI OUT. En ese caso,
obtendremos los mensajes generados desde controlador en MIDI OUT, mientras que los
mensajes correspondientes al controlador situado al inicio de la cadena aparecerán en
MIDI THRU.
Por último, si se dispone de un aparato secuenciador (capaz de almacenar y reproducir
información MIDI recibida), se conectará entre el controlador y la primera unidad
generadora de sonido. En ese caso, el secuenciador dispondrá de conectores MIDI OUT
y MIDI IN.
Aunque existe la posibilidad de la conexión en cascada de varios aparatos MIDI, es
cierto que existe una limitación. Las características eléctricas de los conectores MIDI
hacen la señal proclive a la degradación, por lo que son pocos los aparatos que se
pueden conectar en cascada antes de notar pérdidas apreciables de información.
Software
La especificación MIDI incluye un aspecto de software que parte de la misma
organización de los bytes.
Bytes MIDI
El byte se define como un número binario, o WORD, de 8 bits. La transmisión de los
datos se efectúa en serie, es decir, un bit tras otro, de manera asíncrona, lo que obliga a
agregar un bit de inicio y otro de parada. Para clarificar lo dicho, se puede decir
sencillamente que una transmisión asincrónica de datos se da cuando el receptor no
"sabe" cuándo vendrá el siguiente dato, así que se encuentra en estado constante de
espera, ya sea en nivel alto o en bajo, hasta que se produzca un cambio de estado, que
indique el inicio de un nuevo mensaje. Este bit primero debe ser siempre el mismo, para
que sea siempre diferente al estado "por defecto", así que éste bit no puede formar parte
del byte recibido. A éste bit que sirve para indicar la llegada de un dato y permite al
aparato receptor prepararse para la cadena de bits que viene después, se le conoce como
"bit de inicio". En la especificación MIDI, la entrada se encuentra en un estado alto por
defecto, así que el bit de inicio es un 0. El bit de parada sirve para dar tiempo al aparato
receptor de decidir qué hacer con la información una vez recibida. En el caso del MIDI,
éste bit es siempre 1. La velocidad de recepción/transmisión de los datos MIDI se
definió en 31.250 baudios, o bits por segundo, así sólo deben transcurrir 32
microsegundos entre un bit y el siguiente; ni más ni menos. También se exige que los 8
bits que conforman el dato en cuestión se envíen de LSB a MSB, es decir, empezar la
transmisión con el bit menos significativo del byte.
Existen dos tipos de bytes: De estado -status byte- y de información -data byte-. Se
diferencian por el primer bit: si es un 1, tenemos un byte de estado, y si es un 0, es un
byte de datos. Al generar un mensaje MIDI, por norma general, siempre enviamos un
byte de estado, que puede estar seguido de cierta cantidad de bytes de datos. Por
ejemplo, podemos enviar un primer mensaje de estado "activar nota", seguido de un
byte de datos informando qué nota es la que se activa. En algunas ocasiones y según el
dispositivo MIDI que se trate, puede ocurrir que se omita el byte status si es idéntico al
anterior. Por ejemplo, si tocamos la tecla do de un piano mandaría:
Jossie Arenal Pretto
Página 24
DEPARTAMENTO DE MÚSICA
L.P.M. CURSO 14/15
1001xxxx (note on)
00111100 (valor 60 que corresponde a la nota do central "C3")
0xxxxxxx (la velocidad con la que haya sido apretada la tecla)
Pero al soltarla, puede omitir el status byte y apagarla por volumen (otra
posibilidad es que usase el 1000xxxx (note off) para apagarla).Es decir
transmitiría sólo los dos siguientes bytes:
00111100 (valor 60 que corresponde a la nota do central "C3")
00000000 (la velocidad cero, que indica que tiene que dejar de sonar esa nota)
Omitiendo así el status byte. Es más, si nuevamente pulsamos la tecla do,
volvería a omitir el status byte.
A su vez, los mensajes de estado se dividen en dos grupos: mensajes de canal y
mensajes de sistema. Los mensajes de canal se envían a un dispositivo específico,
mientras que los mensajes de sistema son recibidos por todos los equipos.
En la siguiente tabla tenemos una lista con todos los mensajes disponibles.
Tabla 1. Mensajes MIDI
Byte estado
Descripción
1000ccccc
Desactivación de nota
1001ccccc
Activación de nota
1010ccccc
Postpulsación polifónica
1011ccccc
Cambio de control
1100ccccc
Cambio de programa
1101ccccc
Postpulsación monofónica de canal
1110ccccc
Pitch
11110000
Mensaje exclusivo del fabricante
11110001
Mensaje de trama temporal
11110010
Puntero posición de canción
Jossie Arenal Pretto
Página 25
DEPARTAMENTO DE MÚSICA
11110011
Selección de canción
11110100
Indefinido
11110101
Indefinido
11110110
Requerimiento de entonación
11110111
Fin de mensaje exclusivo
11111000
Reloj de temporización
11111001
Indefinido
11111010
Inicio
11111011
Continuación
11111100
Parada
11111101
Indefinido
11111110
Espera activa
11111111
Reseteo del sistema
L.P.M. CURSO 14/15
Los primeros bytes, cuyos últimos cuatro bits están marcados como "cccc", se refieren a
mensajes de canal; el resto de bytes son mensajes de sistema.
Antes de explicar más detalladamente las características de algunos de los mensajes,
conviene conocer dos importantes características de MIDI: los canales y los modos.
Canales MIDI
Como se comentó con anterioridad, MIDI está pensado para comunicar un único
controlador con varias unidades generadoras de sonido (cada una de las cuales puede
tener uno o varios instrumentos sintetizados que deseemos utilizar), todo por un mismo
medio de transmisión. Es decir, todos los aparatos conectados a la cadena MIDI reciben
todos los mensajes generados desde el controlador. Ello hace necesario un método para
diferenciar cada uno de los instrumentos. Este método es el denominado canal.
MIDI puede direccionar hasta 16 canales (también llamados voces, o instrumentos); por
ello, al instalar el sistema MIDI será necesario asignar un número de canal para cada
dispositivo.
Jossie Arenal Pretto
Página 26
DEPARTAMENTO DE MÚSICA
L.P.M. CURSO 14/15
Instrumentos General MIDI
Estos son los 128 instrumentos de la especificación General MIDI, incluida en la
especificación detallada MIDI 1.0, del inglés "Complete MIDI 1.0 detailed
specification":
00 - Piano de
cola acústico
01 - Piano
brillante
acústico
02 - Piano de
cola eléctrico
03 - Piano
Honky tonk
04 - Piano
Rhodes
05 - Piano
con "chorus"
06 Clavicordio
07 - Clavecín
08 - Celesta
09 Glockenspiel
10 - Caja de
música
11 Vibráfono
12 - Marimba
13 - Xilófono
14 Campanas
tubulares
15 Dulcémele
16 - Órgano
Hammond
17 - Órgano
percusivo
18 - Órgano
de rock
19 - Órgano
de iglesia
20 - Armonio
21 Acordeón
22 Armónica
23 Jossie Arenal Pretto
32 - Bajo
acústico
33 - Bajo
eléctrico
pulsado
34 - Bajo
eléctrico con
plectro
35 - Bajo sin
trastes
36 - Bajo en
slap 1
37 - Bajo en
slap 2
38 - Bajo
sintetizado 1
39 - Bajo
sintetizado 2
40 - Violín
41 - Viola
42 Violonchelo
43 Contrabajo
44 - Cuerdas
en trémolo
45 - Cuerdas
en pizzicato
46 - Arpa
47 - Timbales
48 - Conjunto
de cuerda 1
49 - Conjunto
de cuerda 2
50 - Cuerdas
sintetizadas 1
51 - Cuerdas
sintetizadas 2
52 - Coro
Aahs
53 - Coro
Oohs
54 - Coro
sintetizado
64 - Saxofón
soprano
65 - Saxofón
alto
66 - Saxofón
tenor
67 - Saxofón
barítono
68 - Oboe
69 - Corno
inglés
70 - Fagot
71 - Clarinete
72 - Flautín
73 - Flauta
travesera
74 - Flauta
dulce
75 - Flauta de
pan
76 - Botella
77 Shakuhachi
78 - Silbato
79 - Ocarina
80 - Solo 1
(onda
cuadrada)
81 - Solo 2
(diente de
sierra)
82 - Solo 3
(órgano de
vapor)
83 - Solo 4
(siseo)
84 - Solo 5
(charanga)
85 - Solo 6
(voz)
86 - Solo 7
(quintas)
87 - Solo 8
(metal y solo)
96 - Efecto 1
(lluvia)
97 - Efecto 2
(banda
sonora)
98 - Efecto 3
(cristales)
99 - Efecto 4
(atmósfera)
100 Efecto 5
(brillo)
101 Efecto 6
(duendes)
102 Efecto 7
(ecos)
103 Efecto 8
(ciencia
ficción)
104 Sitar
105 Banjo
106 Shamisen
107 Koto
108 Kalimba
109 Gaita
110 Fídula
111 Shannai
112
Campanillas
113 Agogô
114 Steel
drum
115 Caja
china
116 Taiko
117 Tom
melódico
118 Caja
sintetizada
119 Plato
invertido
120 Trasteo
de guitarra
121
Respiración
Página 27
DEPARTAMENTO DE MÚSICA
Bandoneón
24 - Guitarra
española
25 - Guitarra
acústica
26 - Guitarra
eléctrica
(jazz)
27 - Guitarra
eléctrica
(limpia)
28 - Guitarra
eléctrica
(tapada o
muteada)
29 - Guitarra
saturada
(overdrive)
30 - Guitarra
distorsionada
31 Armónicos de
guitarra
55 - Tutti de
orquesta
56 Trompeta
57 - Trombón
58 - Tuba
59 Trompeta con
sordina
60 - Corno
francés
61 - Sección
de metales
62 - Metales
sintetizados 1
63 - Metales
sintetizados 2
L.P.M. CURSO 14/15
88 - Fondo 1
(nueva era)
89 - Fondo 2
(cálido)
90 - Fondo 3
(polisintetiza
dor)
91 - Fondo 4
(coro)
92 - Fondo 5
(de arco)
93 - Fondo 6
(metálico)
94 - Fondo 7
(celestial)
95 - Fondo 8
(escobillas)
122 Costa de
mar
123 Pájaros
124 Timbre
de teléfono
125
Helicóptero
126 Aplauso
127 Disparo
Modos MIDI
Dentro del sistema MIDI, se decidió crear una serie de diferentes modos de
funcionamiento, cada uno con ciertas características. Antes de verlo, debemos
diferenciar entre los siguientes conceptos:
Monofónico: un instrumento monofónico sólo puede reproducir una nota
simultáneamente. Es decir, para reproducir una nueva nota debe primero dejar
de sonar la anterior. Por ejemplo, los instrumentos de viento son monofónicos,
ya que sólo reproducen un único sonido cada vez.
Polifónico: un instrumento polifónico puede reproducir varias notas
simultáneamente. Un ejemplo es un piano, que puede formar acordes por medio
de hacer sonar dos o más notas a la vez.
Una vez aclarado este aspecto, podemos resumir los modos MIDI en la siguiente tabla:
Tabla 2. Modos de funcionamiento MIDI
Número
1
Nombre
Omni on / poly
Jossie Arenal Pretto
Descripción
Funcionamiento polifónico sin información de canal
Página 28
DEPARTAMENTO DE MÚSICA
L.P.M. CURSO 14/15
2
Omni on / mono Funcionamiento monofónico sin información de canal
3
Omni off / poly Funcionamiento polifónico con múltiples canales
4
Omni off / mono Funcionamiento monofónico con múltiples canales
Los dos primeros modos se denominan "Omni on". Esto se debe a que en esos modos la
información de canal está desactivada. Esas configuraciones se reservan para
configuraciones donde sólo utilicemos un instrumento. Los otros dos modos, "Omni
off", sí admiten la información de canal.
Mensajes de canal
Channel o Canal; es el mensaje más común. Existen siete tipo de mensajes channel: Note on - Note off - Pitch-Bend - Program change - Aftertouch - Polyphonic Aftertouch
- Control change.
Controlador y unidad generadora de sonido
Tanto en el sentido de generar el/los sonido/s se autocomplementa en el sentido de
grabación - difusión - al mismo tiempo con consolas preparadas y dispuestas para dicho
sistema. Ejemplo: Sea una o varias voces humanas o generada por instrumental se
compaginan cambiando información ó datos, tarea que es realizada en el sistema MIDI.
Controlador y varias unidades
Secuenciador
Un secuenciador es un dispositivo que permite realizar grabaciones de datos MIDI paso
a paso donde quedan almacenados la altura MIDI (0-127) duración la nota, la velocidad
(análoga a la intensidad con valores de 0 a 127)el tipo de instrumentos (patch) y efectos.
Todo esto se combina para formar el corpus de datos a emitir. Estos datos pueden ser
utilizados para piezas de música, así como para el control de consolas de luces, consolas
de audio o cualquier equipamiento que interprete el protocolo MIDI y pueda usar éste
para fines particulares.
Sintetizadores MIDI frecuentes
Frecuencia modulada
Síntesis mediante tabla de ondas
Jossie Arenal Pretto
Página 29
DEPARTAMENTO DE MÚSICA
L.P.M. CURSO 14/15
d) Tipos de archivos de audio
Empezaremos a explicar los tipos de archivos de sonido que existen distinguiendo entre
aquellos con pérdida y sin pérdida.
Los archivos de sonido con pérdida son aquellos que usan un algoritmo de
compresión con pérdida, es decir un tipo de compresión que representa la
información (por ejemplo una canción), pero intentando utilizar para ello una
cantidad menor de información. Esto hace que sea imposible reconstruir
exactamente la información original del archivo.
Se podrá reconstruir tan solo una aproximación a la información original que
contenía el archivo. El empleo de estos métodos de compresión con pérdida
suele usarse en información analógica que quiere digitalizarse, como por
ejemplo imágenes, audio, vídeo etc. Además tiene la gran ventaja de que
obtendremos datos digitalizados que ocupan menos espacio en disco.
Los archivos de sonido sin pérdida son aquellos que usando o no métodos de
compresión, representan la información sin intentar utilizar menor cantidad de la
información original. Hacen posible una reconstrucción exacta de la información
original.
Archivos de sonido con pérdida:
MP3 o MPEG-1 Audio Layer 3: Es un formato de audio digital estándar
comprimido con pérdida, la pérdida de información del formato mp3 no es
audible por el oído humano, por tanto no distinguiremos la diferencia entre un
archivo de audio sin compresión y un archivo mp3.
Además un archivo mp3 consigue reducir el tamaño del archivo de sonido sin
influir en su calidad, aproximadamente 1 minuto de audio en formato mp3 ocupa
1 MB con una calidad prácticamente igual a la calidad de Cd.
Estas ventajas han conseguido que el formato mp3 pueda ser reproducido en casi
todos los reproductores de audio, que sea el formato por excelencia para el
intercambio a través de internet, una de las mejores opciones en estos momentos
para almacenar música con buena calidad, y también el formato de audio que
más se utiliza en reproductores portátiles, es un estándar y por tanto la
compatibilidad con todos los medios está garantizada.
El formato de audio mp3 permite seleccionar la calidad del audio que vamos a
comprimir, la calidad de cd sería equivalente a 128 Kbps (Bit rate), pero
podemos seleccionar la compresión entre los 8 Kbps y los 320 Kbps teniendo en
cuenta que cuanto mayor sea la transmisión de datos (Kbps), mayor espacio
ocupará el archivo.
La frecuencia de muestreo del mp3 se encuentra entre los rangos de 16 Hz y los
48 KHz. Y tan solo soporta 2 canales (estéreo)
Jossie Arenal Pretto
Página 30
DEPARTAMENTO DE MÚSICA
L.P.M. CURSO 14/15
ACC o Advanced Audio Coding: Es un formato de audio digital estándar
como extensión de MPEG-2 comprimido con pérdida, y ofrece más calidad que
mp3 y es más estable para un mismo número de Kbps y un mismo tamaño. Su
compresión está basada en los mismos principios que la compresión MP3, con la
diferencia de que ofrece la posibilidad de emplear frecuencias de muestreo del
rango de entre 8 Hz hasta los 96 KHz. El método de codificación adapta
automáticamente el número de Kbps (Bit rate) necesarios en función de la
complejidad de la transmisión de audio en cada momento.
ACC soporta 48 canales distintos como máximo, lo que lo hace indicado para
sonido envolvente o Surround y sonidos polifónicos, es decir que sería una
buena opción en caso de no escuchar el audio en cualquier sistema de audio de
dos canales (estéreo), y en el caso de películas, vídeo o en caso de disponer de
un reproductor compatible conseguiremos reducir el tamaño del archivo. Es más
eficiente que MP3 en casi todos los aspectos, ofrece mayor calidad y archivos de
menor tamaño, pero no goza por el momento de la compatibilidad y la
popularidad del MP3.
Es compatible con los dispositivos de la marca Apple, iTunes, iPods, Winamp,
Ahead Nero, MP4 etc. Pero aún pueden existir problemas de compatibilidad.
Ogg: Es un formato de audio digital comprimido con pérdida. Normalmente los
archivos Ogg están comprimidos con el códec Vorbis, que es un códec de audio
libre que permite una máxima flexibilidad a la hora de elegir entre la amplia
gama de bitrates según la complejidad de la transmisión de audio, en la relación
calidad-bitrate, se encuentra parejo con MPEG-2 y en la mayoría de los bitrates
es comparable al formato ACC.
Este formato está pensado para codificar desde la calidad de telefonía 8kHz
hasta la calidad de alta definición 192 KHz, y para sistemas monoaurales,
estereofónicos, polifónicos, cuadrafónicos, 5.1, ambisónicos y hasta 255 canales
discretos. Los bitrates disponibles van desde 32 Kbps hasta 500 Kbps. El
formato Ogg ofrece una mejor fidelidad de sonido entre 8 KHz y 48 KHz que el
mp3 y sus archivos ocupan menos espacio. En cuanto a compatibilidad, tampoco
es un formato todavía tan universal como el mp3 pero cada vez más dispositivos
y programas lo reconocen y pueden trabajar con el.
Real Audio o RM: Es un formato de archivo pensado para las transmisiones por
internet en tiempo real, por ejemplo las radios que emiten online o cuando un
servidor tiene un archivo de sonido almacenado y nosotros lo escuchamos sin
que el archivo se cargue por completo ni se almacene en nuestro ordenador, esto
es posible gracias al proceso de Buffering que básicamente es recibir un paquete
de sonido en nuestro reproductor en este caso (Real Player) mientras el siguiente
se almacena en la carpeta de temporales hasta que sea requerido por el
reproductor. Con este sistema los archivos no pueden ser copiados.
A diferencia de la codificación con MP3 que mantiene su rango de frecuencia de
muestreo (Kbps), la codificación con Real Audio permite adaptarla a la
capacidad del recepción del usuario dependiendo de su velocidad de conexión a
internet.
Si el usuario puede recibir paquetes de audio de alta calidad sin interrupciones,
Jossie Arenal Pretto
Página 31
DEPARTAMENTO DE MÚSICA
L.P.M. CURSO 14/15
se los manda, si no bajara la frecuencia de muestreo hasta que pueda recibirlos
sin interrupciones aunque la calidad del audio disminuya.
WMA o Windows Media Audio: Es un formato de compresión de audio con
pérdida aunque también existe este formato con compresión sin pérdida. Y está
desarrollado básicamente con fines comerciales para el reproductor integrado en
Windows, Windows Media Player. Está por debajo del nivel de los anteriores
formatos.
Archivos de Sonido sin pérdida:
AIFF o Audio Interchange File Format que significa Formato de Archivo de
Intercambio de Audio, es un estándar de formato de archivo de audio para
vender datos de sonido para ordenadores, usado internacionalmente por los
ordenadores Amiga y actualmente muy utilizado en los ordenadores Apple.
Los datos en AIFF no están comprimidos, y usan una modulación por impulsos
codificados o PCM. También existe una variante estándar conocida como AIFC
que sí posee compresión.
AIFF es uno de los formatos líderes, junto a SDII y WAV, usados a nivel
profesional para aplicaciones de audio ya que está comprimido sin pérdida lo
que permite un rápido procesado de la señal a diferencia del MP3 por ejemplo,
pero la desventaja de este tipo de formatos es la cantidad de espacio que ocupa,
que es aproximadamente 10MB para un minuto de audio estéreo con una
frecuencia de muestreo de 44.1kHz y 16 bits. Además el estándar da soporte a
bucles para notas musicales para uso de aplicaciones musicales o samplers, sus
extensiones son .aif, .aiff y .aifc para la variante.
FLAC o Free Lossless Audio Codec: es otro códec de compresión sin pérdida,
y consigue reducir el tamaño de un archivo de sonido original de entre la mitad
hasta tres cuartos del tamaño inicial. El formato FLAC se suele usar para la
venta de música por internet, y como alternativa al MP3 para compartila cuando
se desea reducir el tamaño que trendría un archivo WAV-PCM sin perder
calidad, ya que con este tipo de compresión podremos reconstruir los datos
originales del archivo. También se suele usar para realizar copias de seguridad
de CDs de audio y admite cualquier resolución PCM de 4 a 32 bits, y cualquier
bitrates según la complejidad de la transmisión de audio, en la relación calidadbitrate, se encuentra parejo con MPEG-2 y en la mayoría de los frecuencia de
muestreo (sample rate) desde 1 a 65535KHz, en incrementos de 1Hz.
WAV o wave: Waveform Audio Format es un formato de audio digital sin
compresión que se emplea para almacenar sonidos en el ordenadores con
windows, es una formato parecido al AIFF pero tomando en cuenta
peculiaridades de intel.
Puede soportar casi todos los códecs de audio, se utiliza principalmente con
PCM (no comprimido). Se usa profesionalmente, para obtener calidad de CD se
debe grabar el sonido a 44100 Hz y a 16 bits, por cada minuto de grabación de
sonido se consumen unos 10 megabytes de disco duro. Y su limitación es que
solo puede grabar archivos de 4GB que son aproximadamente unas 6 horas y
Jossie Arenal Pretto
Página 32
DEPARTAMENTO DE MÚSICA
L.P.M. CURSO 14/15
media de audio en calidad CD.
No se usa a penas para compartir música por internet, ya que existen otros
formatos de audio sin pérdida que reducen mucho más el tamaño de los
archivos.
MIDI: Interface Digital para Instrumentos Musicales, es considerado el
estándar para industria de la música electrónica. es muy útil para trabajar con
dispositivos como sintetizadores musicales ó tarjetas de Sonido.
Su extensión es .midi o .mid.
VIDEOS COMPLEMENTARIOS
Historia del audio: https://youtu.be/ZrGodHd3Qn0
Fonografo de Edison: https://youtu.be/QEBs3WgmRMQ
Gramófono de Thorens: https://youtu.be/bLS9kEvSIXA
Micrófonos: https://youtu.be/ISDj_-Ge8ks
Altavoces: https://youtu.be/HBRqwTAn_SM
Amplificadores: https://youtu.be/C1hi53jR0bs
Tocadiscos: https://youtu.be/01bKT3jB0O8
Theremin: https://youtu.be/w5qf9O6c20o / https://youtu.be/nJYho56INKU
Ondas Martenot: https://youtu.be/v0aflcF0-ys
Sampler: https://youtu.be/EgOB4cH1QfY
Midi: https://youtu.be/Z_nYVvGk8nQ
LA SINTESIS DIGITAL:
http://www.ccapitalia.net/reso/articulos/audiodigital/09/sintesisysonidodigita
l.htm
http://www.tecn.upf.es/~sjorda/ME2003/6-SintesisDigital/ME6SintesisDigital.pdf
Jossie Arenal Pretto
Página 33
Descargar