sonido - Argia

Anuncio
SONIDO
INICIO
GUÍA DE APRENDIZAJE
1_INTRODUCCIÓN
2_ELEMENTOS DEL SONIDO: COMPARACIÓN ENTRE IMAGEN Y SONIDO
3_LAS 3 DIMENSIONES
4_LA MÚSICA EN EL MEDIO AUDIOVISUAL
5_EFECTOS DE SONIDO
6_TRATAMIENTO DEL SONIDO
7_UTILIDAD DEL TRATAMIENTO DEL SONIDO
8_FORMATOS DE AUDIO
SONIDO
INICIO
GUÍA DE APRENDIZAJE
1.-INTRODUCCIÓN
Sonido: Definición
El sonido es la vibración de un medio elástico, bien sea
gaseoso, liquido o solido. Cuando nos referimos al sonido
audible por el oído humano, estamos hablando de la
sensación detectada por nuestro oído, que producen las
rápidas variaciones de presión en el aire por encima y por
debajo de un valor estático. Este valor estático nos lo da
la presión atmosférica (alrededor de 100.000 pascals) el
cual tiene unas variaciones pequeñas y de forma muy
lenta, tal y como se puede comprobar en un barómetro.
SONIDO
INICIO
GUÍA DE APRENDIZAJE
2.-ELEMENTOS DEL SONIDO: COMPARACIÓN ENTRE IMAGEN Y SONIDO
A continuación, repasaremos los elementos característicos de la imagen comparados con los del sonido, para poder hacernos una idea más intuitiva de
cada concepto.
"Punto" equivale a "muestra". Una muestra es un registro de sonido que en teoría puede llegar a ser infinitamente pequeño. En la captación de sonido
se recoge una cantidad determinada de muestras por segundo.
"Línea" equivale a "ciclo sinusoidal". Un ciclo sinusoidal es un conjunto de muestras regular, con un ascenso y un descenso partiendo de cero y
llegando a cero. Al igual que líneas curvas, puede haber variaciones en la curva gráfica que muestra un ciclo sinusoidal.
"Plano" equivale a "tono sinusoidal continuado". Un tono sinusoidal continuado no se da en la naturaleza: es un pitido constante. Si un plano puede
formarse por un conjunto de líneas asignadas una junto a otra, puede surgir el concepto de plano. Pero es una aproximación muy, muy vaga. Otra
posibilidad es descartar la existencia del plano y considerar que el "tono sinusoidal continuado" es la línea y que el punto es "el ciclo sinusoidal",
descartando la muestra como elemento cognitivo en un primer momento, hasta que se agrupa con otros. Sin duda aquí encontramos la mayor laguna de
toda la comparativa.
"Color" equivale a "frecuencia". Grave o agudo equivale por lo tanto a tonos fríos o calientes. El color puede producir sensaciones igual que el tono.
"Luminancia" equivale a "intensidad" o volumen. Posiblemente es la equivalencia más clara de todas.
"Trama" equivale a "trama", porque el concepto es el mismo. La velocidad de registro de muestras determina la calidad definitiva del sonido. Existen
sistemas de registro tanto analógicos como digitales con las mismas consecuencias que en el tratamiento de imágenes. Por lo tanto podemos decir que
el grano fotográfico equivale muy fielmente a la cantidad de detalle de un disco, y el pixel equivale a una muestra.
SONIDO
INICIO
GUÍA DE APRENDIZAJE
2.-ELEMENTOS DEL SONIDO: COMPARACIÓN ENTRE IMAGEN Y SONIDO
"Textura" equivale a "armónicos". Sin duda la mayor satisfacción al crear esta comparativa ha sido observar cómo los equivalentes visuales de los
componentes de la textura gráfica son los mismos que los equivalentes sonoros de los armónicos. Puede considerarse todo un éxito. Los armónicos son
las variaciones en los ciclos que permiten crean las auténticas formas sonoras: Timbres de voz, armonías, etc. Se aplican al plano, si aceptamos que
éste es un tono sinusoidal continuado, y son la combinación de frecuencia y luminancia.
Otras comparaciones:
Nitidez: Existe una zona en el espectro auditivo que podemos considerar de más nitidez que el resto. Es también la parte que más llama nuestra
atención, como los colores calientes. Es la zona de los 1.000 hz. Si se oyen sonidos a diferentes frecuencias, las que se acerquen más a ésta son las
que se oirán mejor. Se puede considerar que hay una tendencia natural a distinguir en ella la forma y desechar el resto como fondo.
Movimiento y secuencialidad: El sonido es una vibración que depende enteramente del tiempo para su percepción, por lo que podemos decir que no
existe sin movimiento, al contrario que la imagen fija. Y como no podemos trasladar el concepto de imagen fija al sonido, tampoco podemos hacerlo con
la secuencialidad.
Línea sugerida/movimiento sugerido: El hecho de que una reproducción pueda surgir de un número de muestras y que éstas formen tonos similares
a los que percibimos en la realidad supone un movimiento sugerido. Sin embargo debemos recordar que no existe el no-movimiento. En cuanto a las
líneas sugeridas, es interesante el hecho de que si nosotros tocamos la escala en un piano podemos imaginar el tono que viene a continuación y
también formamos una continuidad interna de los medios tonos si se toca lo suficientemente deprisa.
Ritmo: Sin duda queda claro que el ritmo en el ámbito del sonido es equivalente a una repetición de elementos en un esquema. No es que aporte
temporalidad como en una imagen fija, sino que la refuerza.
SONIDO
INICIO
GUÍA DE APRENDIZAJE
3.-LAS 3 DIMENSIONES
El concepto de tridimensionalidad requiere más atención que el resto de los
anteriores. Para empezar, la representación gráfica de un registro de sonido es
bidimensional. Pero esto no supone que una fuente de sonido sea bidimensional.
Por definición, el origen de un sonido se encuentra en un solo lugar, aunque
puede haber muchos orígenes de un sonido juntos o el sonido puede rebotar y
distribuirse antes de llegar al perceptor.
Una señal mono corresponde a un punto determinado de ese plano espacial en
el que percibimos datos. Estos son por ejemplo, las radios antiguas de un solo
altavoz.
Nuestra escucha es biaural. Tenemos dos pabellones auditivos distribuidos a
cada lado de la cabeza. Esta escucha biaural tiene como característica que
podemos determinar desde qué ángulo del mismo plano se produce un sonido.
Un ejemplo realmente interesante es escuchar un CD estéreo de música rock
con los altavoces adecuadamente orientados. Nosotros oímos dos fuentes de
sonido, pero somos capaces de reconocer que el cantante se encuentra en el
centro, el guitarrista a la izquierda y el bajista a la derecha. Esto se debe a que
recomponemos desde nuestros dos receptores un universo tridimensional, de
una manera abrumadoramente similar a la visión estereoscópica.
SONIDO
INICIO
GUÍA DE APRENDIZAJE
3.-LAS 3 DIMENSIONES
Es más, podemos determinar si alguien está delante o detrás gracias a muy complejos cálculos inconscientes. Nuestras orejas están orientadas algo
más hacia adelante, y la percepción contrastada de los oídos de una fuente detrás de nosotros no es exactamente igual a la de delante. Este
reconocimiento se ve apoyado porque no vemos al sujeto, por leves movimientos de cabeza, etc.
Otro aspecto de nuestra percepción tridimensional es la falta de capacidad de determinar la altura a la que oímos. No podemos reconocer si nos hablan
desde abajo o desde arriba. Otros animales, como los gatos, tienen orejas móviles, y esto supone una facultad para percibir el origen exacto del sonido.
Es evidente que a ellos les hace más falta que a nosotros, por constitución física y costumbres vitales.
Volvamos a las fuentes de sonido. El reconstruir los orígenes de las fuentes en un disco en estéreo es una simulación, una sensación acústica, no es
real. De hecho, es tan real como una película tridimensional. Los sistemas Surround son una simulación también. Por ahora debemos tener en cuenta
que más altavoces no aportan más realidad. Ni siquiera si estuviese un cine tapiado con altavoces sincronizados para ofrecer sonido desde todos los
puntos posibles sería completamente real. Además, hay que tener en cuenta que estos sistemas, con los Laboratorios Dolby a la cabeza, no buscan
tanto la realidad, sino más bien la espectacularidad.
SONIDO
INICIO
GUÍA DE APRENDIZAJE
4.-LA MÚSICA EN EL MEDIO AUDIOVISUAL
Las funciones de la música varían según sea su origen. En este sentido diferenciamos entre música diegética; aquella que pertenece al mundo de los
personajes (por ejemplo, en una escena de baile en una película de los años 50, la música de la orquesta que toca en la sala) y la música no diegética:
la que existe fuera del mundo de los personajes, y por tanto ellos no la pueden oír.
SONIDO
INICIO
GUÍA DE APRENDIZAJE
4.-LA MÚSICA EN EL MEDIO AUDIOVISUAL
Existen determinados formatos musicales destinados a cumplir funciones específicas:
Sintonía: caracteriza inequívocamente un programa o producción audiovisual; avisa de su inicio o final.
Ráfaga: fragmento de música sin otra finalidad que la de introducir variación o distracción sonora.
Cortinilla: fragmento breve utilizado para delimitar y separar secciones de una misma producción.
Fondo o ambiente: música incidental, que suele ir mezclada con diálogos o efectos importantes, y que contribuye a mantener una continuidad anímica
o estructural.
Banda Sonora: suele identificarse como tal la banda musical pero incluye también la banda de efectos y la de diálogos.
Pero lo más importante de la música es que transmita algo. La música sugiere. Es un hecho innegable. Es más, por eso existe. Como imagen auditiva
que es, trae recuerdos de otras imágenes o sentimientos. Vamos a observar aquí algunos de ellos en una configuración sinfónica:
Los timbales y percusiones con gran presencia de frecuencias graves y sobre tonos. En función al ritmo, si son movimientos vivos, denotarán cierta
tensión, angustia en algunos casos; en cambio, en un ritmo medio, podrán dar un aire de heroicidad, de gesta, y finalmente, si los movimientos son muy
lentos, transmitirán cierto aire de solemnidad.
La familia de cuerda (violín, viola, chelo y contrabajo) se utiliza para conferir tonos románticos, apasionados o melancólicos.
La familia de madera (oboe, fagot) suele conferir tonos intimistas.
Los metales (trompetas, trombón de varas etc.) denotan ritmo, acción.
El piano es siempre un elemento para denotar soledad.
El flautín denota infancia y candidez.
La guitarra española presta siempre un aire latino.
Todo esto es cuidadosamente analizado por el compositor de una obra junto al director de la película. Un autor puede dejar una voz femenina con poca
carga instrumental en el momento en que hable una mujer en una secuencia romántica y volver a ella (violines, etc.) cuando habla la voz masculina. No
se solapan y así se continúa con el aspecto romántico que proporcionaba la voz femenina.
SONIDO
INICIO
GUÍA DE APRENDIZAJE
5.-EFECTOS DE SONIDO
Un efecto de sonido puede considerarse como cualquier reproducción auditiva que trate de acompañar a la acción y proporcionar realismo a una
producción audiovisual. Los efectos pueden representar objetos, movimientos en el espacio o en el tiempo, estados emocionales, procesos de
pensamiento, contacto físico entre objetos, escenarios, entidades irreales, etc. Estos son los diferentes tipos que encontramos, según sea su origen:
Efectos originales: Son los procedentes de las tomas de sonido directo o sonido de producción. Estos efectos pueden ir en sincronía con determinadas
imágenes o ser independientes de ellas, si bien su origen sigue siendo los lugares del rodaje. Cuando la planificación de la producción establece la
grabación de sonidos originales hay que conseguirlos con la máxima nitidez sonora posible Los efectos originales tienen los inconvenientes de que es
difícil hallar lugares lo suficientemente tranquilos y silenciosos que garanticen una buena grabación, y que muchos eventos naturales son poco
controlables y difícilmente repetibles. Por todo ello los efectos originales a menudo requieren de algún tipo de procesado posterior antes de incluirlos en
la banda sonora.
Efectos de sala: Son sonidos que reemplazan los sonidos de ambiente y los efectos que se pierden cuando se doblan diálogos o se graban en directo.
En general los efectos de sala acostumbran a ser pasos, roces de ropa, ruidos domésticos, puertas que se abren y se cierran, etc., y para su grabación
los estudios disponen de suelos de superficie variable. Efectos típicos de sala son los pasos de un caballo creados a partir de golpear cocos contra un
suelo de tierra o de grava, la lluvia creada a partir de volcar tierra sobre un papel situado encima del micrófono, los sonidos de comida friéndose creados
a partir de poner trapos mojados sobre una superficie ardiente, los truenos creados a base de sacudir un globo lleno de perdigones o bolitas de plomo, o
el fuego creado arrugando papel celofán. Los efectos de sala no siempre tienen que ser lo que definitivamente vaya a sonar: posteriormente pueden
procesarse o acumularse unos sobre otros hasta conseguir el tipo de sonido que mejor se adecue.
Efectos de colecciones o de bibliotecas: Las colecciones en discos son el recurso más utilizado a la hora de construir la banda sonora de una
producción audiovisual. Suelen venderse en sitios especializados y están organizadas temáticamente con categorías tales como transporte, naturaleza,
domésticos, electrónicos, exteriores, humanos, etc.
SONIDO
INICIO
GUÍA DE APRENDIZAJE
5.-EFECTOS DE SONIDO
Efectos electrónicos o sintéticos: Oskar Fischinger desarrolló técnicas que consistían en la manipulación de la pista óptica de la película, pintándola a
mano, por ejemplo. Ya en los años 50 algunos creadores de efectos de sonido construyeron máquinas especiales para generar determinados tipos de
efectos, y también son de aquella época los primeros sonidos verdaderamente sintéticos. No obstante, hasta los años 70 los sintetizadores y otros
dispositivos electrónicos no empezaron a funcionar a gran escala. Además empezó a utilizarse el denominado Sampler, que es un sistema electrónico
para colocar efectos en tiempo real.
Los sonidos pueden ser naturales, es decir, que el efecto sea el sonido del mismo objeto que lo ha producido o falseado, a esto se lo denomina "sonido
característico". Es una imitación del objeto que está sonando. Un sonido característico puede reconocerse, pero no es el original de la fuente sonora
sino aquél que se supone, o que se supone que el oyente puede suponer, que ha de tener la fuente sonora.
La deformación o imitación de un sonido característico se hace con el fin de intensificar el impacto sobre el espectador. Un ejemplo muy interesante
ocurrió en USA: durante muchos años todos los anuncios de automóviles utilizaban el mismo sonido, el de un Deussenberg del 35, debido a que su
timbre no enmascaraba las voces de los locutores y realmente "parecía un coche"; para el oyente especialmente si no era demasiado entendido en
sonidos de coches el efecto utilizado era apropiado, aunque no fuera el que correspondía en realidad al coche que se promocionaba.
Los sonidos tienen distintas funciones en las producciones audiovisuales:
Sonidos objetivos: aquellos que suenan a consecuencia de la aparición de la imagen de un objeto que emite el sonido. Un sonido objetivo suena como
se supone que sonará el objeto que aparece en la imagen (no necesariamente suena exactamente como lo hace en la realidad).
Sonidos subjetivos: aquellos que apoyan una situación anímica o emocional de la trama o de los personajes, sin que necesariamente el objeto
productor del sonido aparezca en la imagen.
Sonidos descriptivos: aquellos que no representan a ningún objeto de los que aparecen en la imagen, sino que son abstracciones o idealizaciones de
los sonidos supuestamente originales (aquellos que podríamos escuchar). Podemos considerarlos como sonidos metafóricos.
SONIDO
INICIO
GUÍA DE APRENDIZAJE
6.-TRATAMIENTO DEL SONIDO
Antes de adentrarnos en las posibilidades que ofrece el
control de unas muestras de audio y su tratamiento
expresivo, vamos a tener en cuenta algunos recursos
básicos que posibilitan el tratamiento: El efecto de
reverberación, los procesos dinámicos y la ecualización.
•
El efecto de reverberación consiste en copiar
una muestra del espectro de sonido y repetirla.
Existen varios parámetros que se pueden
cambiar, entre ellos el tiempo que tarda en
repetirse, el volumen que tiene la nueva
repetición, etc. Este es posiblemente el efecto
más importante del procesado de sonido. Es
relativamente simple y rápido de tratar y está
muy estudiado. La reproducción electrónica
produce unos efectos similares a los de la
naturaleza, en la que el ejemplo más claro que
se puede encontrar es el del eco: Decimos algo
en voz alta y se nos repite más bajo y con
rasgos ligeramente distintos hasta desaparecer.
Existe otro parámetro importante: La naturaleza
de reflexión de sonido de la superficie en que
rebota.
SONIDO
INICIO
GUÍA DE APRENDIZAJE
6.-TRATAMIENTO DEL SONIDO
Algunos modos de transformar el timbre basados en retardo:
•
El efecto Flanger es un filtrado periódico (en forma de peine) de una serie de frecuencias determinadas por el tiempo de retardo, aunque
explicarlo con palabras es poco efectivo. El origen del Flanger es mecánico: si al grabar una cinta en un magnetofón presionamos con el dedo
de vez en cuando y con fuerza variable la bobina que entrega cinta originamos micro-frenazos que alteran la señal original. Si grabamos
simultáneamente en 2 magnetofones, y en uno aplicamos el "flanging" manual mientras que en el otro no, generaremos el barrido característico
del efecto de flanger. El flanger proporciona efectos más llamativos cuanto más rico, armónicamente hablando, sea el sonido.
•
Chorus se utiliza para engrosar la señal, o para simular la existencia de varios instrumentos sonando al unísono. Se simula la imperfección de
un coro. En esta situación, un intérprete puede atacar con cierto retraso y desafinar ligeramente respecto a otro intérprete; eso es lo que se trata
de simular, de manera compacta. Su funcionamiento es similar al del flanger (sólo que la señal que sale se filtra y se realimenta).
Las transformaciones de dinámica se refieren al control del volumen y a la relación de volumen entre la señal y el ruido. Esto supone no simplemente oír
con más o menos intensidad, sino que ofrece numerosas posibilidades:
•
Los denominados compresores dotan de intensidad a las frecuencias de menor volumen y restan a las de mayor volumen. Esto produce más
fuerza a la hora de trasmitir susurros, por ejemplo, y hacen que el volumen total sea uniforme.
•
Las puertas de ruido eliminan las muestras de audio de menor intensidad. Estos filtros sirven para eliminar los sonidos indeseables a partir un
umbral mínimo de ruido y resultan especialmente útiles.
•
Los limitadores consisten en que la intensidad del sonido no suba de las cotas fijadas para que no se oigan muestras más altas de lo deseable.
Un procedimiento también muy útil.
SONIDO
INICIO
GUÍA DE APRENDIZAJE
6.-TRATAMIENTO DEL SONIDO
•
El proceso de normalización consiste en limitar la señal de audio y hacer que el resto del espectro se adapte a este límite. Si se pone un límite
por arriba, todo el sonido se ajustará proporcionalmente. Se utiliza para que una obra prolongada o una emisión mantenga la misma intensidad
constantemente.
•
Los extensores realizan la función contraria a los compresores: bajan las frecuencias bajas y suben las altas.
•
Mediante la ecualización podemos modificar y alterar la señal en base a tres parámetros: Se elige la frecuencia que se va a alterar, se elige la
anchura de banda por encima y por debajo de esa frecuencia y se decide cuánto se amplifica o atenúa. El efecto resulta en un realzado de unas
partes de una obra. Podemos cambiar una pieza musical grabada dando más fuerza a los bajos y menos a los agudos sin alterar el volumen,
porque lo subimos en una parte y lo bajamos en otra.
Tanto en mesas de mezclas analógicas de sonido como en diversos programas informáticos de tratamiento de sonido podemos encontrar una serie de
filtros que tienen una función similar a la ecualización:
Pasa-banda: dejan intacta la señal que se halle en torno a una determinada frecuencia central eliminando el resto. Sirve para eliminar fragmentos
pequeños de ruido.
Pasa-bajos: dejan intacta la señal que exista por debajo de una determinada frecuencia de corte eliminando el resto. Sirve para eliminar agudos.
Pasa-altos: dejan intacta la señal que exista por encima de una determinada frecuencia de corte (por ejemplo, el filtro de 80/100 Hz que habitualmente
llevan las mesas de mezcla) eliminando el resto. Sirve para eliminar tonos graves.
Filtros de rechazo de banda o notch: eliminan la señal que se halle en torno a una determinada frecuencia central. Sirve para aislar un sonido
concreto.
Filtros en escalón o shelving: atenúan o amplifican la señal a partir de una determinada frecuencia de corte, pero sin ser tan abruptos como los pasaaltos y pasa-bajos (los controles de graves y agudos de los amplificadores domésticos y algunas secciones de los ecualizadores de las mesas de
mezclas suelen ser de este tipo).
La mayoría de filtros analógicos o digitales adicionales a los anteriores consisten en combinaciones más o menos complicadas de los mismos.
SONIDO
INICIO
GUÍA DE APRENDIZAJE
7.-UTILIDAD DEL TRATAMIENTO DEL SONIDO
En el mundo del sonido existen equivalentes a los encuadres visuales. El concepto de planos sonoros indica las relaciones existentes entre las diversas
fuentes que coexisten en una banda sonora, es decir, las diferentes voces, la música y los efectos.
Hay cuatro tipos de planos básicos:
El narrador: Son las voces en off que buscan cercanía al espectador. Se utiliza mucho el efecto de compresión y se le dota de más intensidad que al
resto. Como sensación resultante sentimos que quien nos habla se encuentra cerca. Ésta es la función principal de los compresores mencionados
anteriormente: cuando oímos más altas las frecuencias de poca intensidad, nos invade la sensación de que nos hablan muy de cerca. Las voces
susurrantes salen muy reforzadas con este sistema.
El primer plano: Cuando vemos a alguien en pantalla y éste debe ser el centro de atención, también debe tratarse con fuerza su muestra de audio. Por
ejemplo, la voz del protagonista manteniendo una conversación. El mezclador debe tener cuidado de que sea él (el personaje centro de atención) quien
se oiga principalmente, aunque haya otros sonidos de fondo. Por supuesto, la música también puede estar en primer plano.
El segundo plano: Es un concepto difícil de explicar. No es lo que llama la atención pero se oye. Puede ser una conversación en secundaria a la que
no prestamos atención (o no debemos). Se utiliza como recurso expresivo dando un segundo plano a los personajes que están en primer plano y se va
cediendo la atención a otros. También sirve de ejemplo el sonido de un televisor que no es el centro de atención. Literalmente, lo oímos en segundo
plano.
El tercer plano: Consiste en el conjunto de sonidos que no tiene una relevancia especial, el ejemplo más ilustrativo es el de gente en un bar hablando
sin que nos demos cuenta de qué dicen.
SONIDO
INICIO
GUÍA DE APRENDIZAJE
7.-UTILIDAD DEL TRATAMIENTO DEL SONIDO
Hay otros aspectos que deben tenerse en cuenta a la hora de dar un tratamiento al sonido. Uno de ellos es la ambientación. Existen diferencias entre un
espacio abierto y un espacio cerrado tanto en el tratamiento de la fotografía como en el del audio. Mientras, generalmente, la voz en un espacio abierto
suena natural, en un espacio cerrado suena reverberada dependiendo de los materiales y la arquitectura del entorno. Existen diferentes modelos de
reverberación para cada situación. Incluso los hay prefijados para habitaciones, grandes salones, etc.
La ecualización se utiliza mucho para restar calidad al audio. Este es un recurso expresivo también importante en algunos casos: Mediante esta técnica
se simulan llamadas telefónicas, voces en la radio, etc. No sólo tiene esta función expresiva, también tiene una función correctiva, porque ayuda a
disminuir partes no deseables. Pero lo interesante es tratar la música con este sistema. Si se realza una parte de alta frecuencia del espectro, se da más
brillo, si se realzan los bajos, quedan tonos más sombríos. Nótese una vez más que se utilizan expresiones típicas de las imágenes visuales.
Para las voces también se aprovecha este sistema, realzando graves en los hombres, agudos en las mujeres y los niños o cualquier aspecto que los
realizadores pretendan manipular, por ejemplo, si queremos que una persona se oiga en un segundo plano a través de una pared con suficiente calidad
pero con algo de dificultad para que se le entienda.
Otro asunto digno de mención es la forma de solapar música con voz. Para que la música no impida escuchar un diálogo se limita el volumen, se
normaliza y luego se ecualiza reduciendo su fuerza en la zona de los 1.000 hz. El resultado es que las voces se entienden mejor, porque el oyente no
tiene obstáculos que impidan reconocer, bien la parte que capta nítida en el espectro, mientras que de fondo, nunca mejor dicho, se escucha la
composición musical.
SONIDO
INICIO
GUÍA DE APRENDIZAJE
8.-FORMATOS DE AUDIO
Empezaremos a explicar los tipos de archivos de sonido que existen distinguiendo entre aquellos que clasificamos con pérdida y sin pérdida.
•
Los archivos de sonido con pérdida son aquellos que usan un algoritmo de compresión con pérdida, es decir un tipo de compresión que
representa la información (por ejemplo una canción), pero intentando utilizar para ello una cantidad menor de información. Esto hace que sea
imposible reconstruir exactamente la información original del archivo. Se podrá reconstruir tan solo una aproximación a la información original
que contenía el archivo. El empleo de estos métodos de compresión con pérdida suele usarse en información analógica que quiere digitalizarse,
como por ejemplo imágenes, audio, vídeo etc. Además tiene la gran ventaja de que obtendremos datos digitalizados que ocupan menos espacio
en disco.
•
Los archivos de sonido sin pérdida son aquellos que usando o no métodos de compresión, representan la información sin intentar utilizar menor
cantidad de la información original. Hacen posible una reconstrucción exacta de la información original.
SONIDO
INICIO
GUÍA DE APRENDIZAJE
8.-FORMATOS DE AUDIO
Archivos de sonido con pérdida:
•
MP3 o MPEG-1 Audio Layer 3: Es un formato de audio digital estándar comprimido con pérdida, la pérdida de información del formato mp3 no
es audible por el oído humano, por tanto no distinguiremos la diferencia entre un archivo de audio sin compresión y un archivo mp3. Además un
archivo mp3 consigue reducir el tamaño del archivo de sonido sin influir en su calidad, aproximadamente 1 minuto de audio en formato mp3
ocupa 1 MB con una calidad prácticamente igual a la calidad de Cd. Estas ventajas han conseguido que el formato mp3 pueda ser reproducido
en casi todos los reproductores de audio, que sea el formato por excelencia para el intercambio a través de internet, una de las mejores
opciones en estos momentos para almacenar música con buena calidad, y también el formato de audio que más se utiliza en reproductores
portátiles, es un estándar y por tanto la compatibilidad con todos los medios está garantizada. El formato de audio mp3 permite seleccionar la
calidad del audio que vamos a comprimir, la calidad de cd sería equivalente a 128 Kbps (Bit rate), pero podemos seleccionar la compresión
entre los 8 Kbps y los 320 Kbps teniendo en cuenta que cuanto mayor sea la transmisión de datos (Kbps), mayor espacio ocupará el archivo.
La frecuencia de muestreo del mp3 se encuentra entre los rangos de 16 Hz y los 48 KHz. Y tan solo soporta 2 canales (estéreo)
•
ACC o Advanced Audio Coding: Es un formato de audio digital estándar como extensión de MPEG-2 comprimido con pérdida, ofrece más
calidad que mp3 y es más estable para un mismo número de Kbps y un mismo tamaño. Su compresión está basada en los mismos principios
que la compresión MP3, con la diferencia de que ofrece la posibilidad de emplear frecuencias de muestreo del rango de entre 8 Hz hasta los 96
KHz. El método de codificación adapta automáticamente el número de Kbps (Bit rate) necesarios en función de la complejidad de la transmisión
de audio en cada momento. ACC soporta 48 canales distintos como máximo, lo que lo hace indicado para sonido envolvente o Surround y
sonidos polifónicos, es decir que sería una buena opción en caso de no escuchar el audio en cualquier sistema de audio de dos canales
(estéreo), y en el caso de películas, vídeo o en caso de disponer de un reproductor compatible conseguiremos reducir el tamaño del archivo. Es
más eficiente que MP3 en casi todos los aspectos, ofrece mayor calidad y archivos de menor tamaño, pero no goza por el momento de la
compatibilidad y la popularidad del MP3. Es compatible con los dispositivos de la marca Apple, iTunes, iPods, Winamp, Ahead Nero, MP4 etc.
SONIDO
INICIO
GUÍA DE APRENDIZAJE
8.-FORMATOS DE AUDIO
•
Ogg: Es un formato de audio digital comprimido con pérdida. Normalmente los archivos Ogg están comprimidos con el códec Vorbis, que es un
códec de audio libre que permite una máxima flexibilidad a la hora de elegir entre la amplia gama de bitrates según la complejidad de la
transmisión de audio, en la relación calidad-bitrate, se encuentra parejo con MPEG-2 y en la mayoría de los bitrates es comparable al formato
ACC. Este formato está pensado para codificar desde la calidad de telefonía 8kHz hasta la calidad de alta definición 192 KHz, y para sistemas
monoaurales, estereofónicos, polifónicos, cuadrafónicos, 5.1, ambisónicos y hasta 255 canales discretos. Los bitrates disponibles van desde 32
Kbps hasta 500 Kbps. El formato Ogg ofrece una mejor fidelidad de sonido entre 8 KHz y 48 KHz que el mp3 y sus archivos ocupan menos
espacio. En cuanto a compatibilidad, tampoco es un formato todavía tan universal como el mp3 pero cada vez más dispositivos y programas lo
reconocen y pueden trabajar con él.
•
Real Audio o RM: Es un formato de archivo pensado para las transmisiones por internet en tiempo real, por ejemplo las radios que emiten online
o cuando un servidor tiene un archivo de sonido almacenado y nosotros lo escuchamos sin que el archivo se cargue por completo ni se
almacene en nuestro ordenador, esto es posible gracias al proceso de Buffering que básicamente es recibir un paquete de sonido en nuestro
reproductor en este caso (Real Player) mientras el siguiente se almacena en la carpeta de temporales hasta que sea requerido por el
reproductor. Con este sistema los archivos no pueden ser copiados. A diferencia de la codificación con MP3 que mantiene su rango de
frecuencia de muestreo (Kbps), la codificación con Real Audio permite adaptarla a la capacidad del recepción del usuario dependiendo de su
velocidad de conexión a internet. Si el usuario puede recibir paquetes de audio de alta calidad sin interrupciones, se los manda, si no bajará la
frecuencia de muestreo hasta que pueda recibirlos sin interrupciones aunque la calidad del audio disminuya.
•
WMA o Windows Media Audio: Es un formato de compresión de audio con pérdida aunque también existe este formato con compresión sin
pérdida. Está desarrollado básicamente con fines comerciales para el reproductor integrado en Windows, Windows Media Player. Está por
debajo del nivel de los anteriores formatos.
SONIDO
INICIO
GUÍA DE APRENDIZAJE
8.-FORMATOS DE AUDIO
Archivos de Sonido sin pérdida:
•
AIFF o Audio Interchange File Format que significa Formato de Archivo de Intercambio de Audio, es un estándar de formato de archivo de audio
para vender datos de sonido para ordenadores, usado internacionalmente por los ordenadores Amiga y actualmente muy utilizado en los
ordenadores Apple. Los datos en AIFF no están comprimidos, y usan una modulación por impulsos codificados o PCM. También existe una
variante estándar conocida como AIFC que sí posee compresión. AIFF es uno de los formatos líderes, junto a SDII y WAV, usados a nivel
profesional para aplicaciones de audio ya que está comprimido sin pérdida lo que permite un rápido procesado de la señal a diferencia del MP3
por ejemplo, pero la desventaja de este tipo de formatos es la cantidad de espacio que ocupa, que es aproximadamente 10MB para un minuto
de audio estéreo con una frecuencia de muestreo de 44.1kHz y 16 bits. Además el estándar da soporte a bucles para notas musicales para uso
de aplicaciones musicales o samplers, sus extensiones son .aif, .aiff y .aifc para la variante.
•
FLAC o Free Lossless Audio Codec: es otro códec de compresión sin pérdida, y consigue reducir el tamaño de un archivo de sonido original de
entre la mitad hasta tres cuartos del tamaño inicial. El formato FLAC se suele usar para la venta de música por internet, y como alternativa al
MP3 para compartila cuando se desea reducir el tamaño que trendría un archivo WAV-PCM sin perder calidad, ya que con este tipo de
compresión podremos reconstruir los datos originales del archivo. También se suele usar para realizar copias de seguridad de CDs de audio y
admite cualquier resolución PCM de 4 a 32 bits, y cualquier bitrates según la complejidad de la transmisión de audio, en la relación calidadbitrate, se encuentra parejo con MPEG-2 y en la mayoría de los frecuencia de muestreo (sample rate) desde 1 a 65535KHz, en incrementos de
1Hz.
SONIDO
INICIO
GUÍA DE APRENDIZAJE
8.-FORMATOS DE AUDIO
•
WAV o wave: Waveform Audio Format es un formato de audio digital sin compresión que se emplea para almacenar sonidos en el ordenadores
con windows, es una formato parecido al AIFF pero tomando en cuenta peculiaridades de intel. Puede soportar casi todos los códecs de audio,
se utiliza principalmente con PCM (no comprimido). Se usa profesionalmente, para obtener calidad de CD se debe grabar el sonido a 44100 Hz
y a 16 bits, por cada minuto de grabación de sonido se consumen unos 10 megabytes de disco duro. Y su limitación es que solo puede grabar
archivos de 4GB que son aproximadamente unas 6 horas y media de audio en calidad CD. No se usa a penas para compartir música por
internet, ya que existen otros formatos de audio sin pérdida que reducen mucho más el tamaño de los archivos.
•
MIDI: Interface Digital para Instrumentos Musicales, es considerado el estándar para industria de la música electrónica. es muy útil para trabajar
con dispositivos como sintetizadores musicales o tarjetas de Sonido. Su extensión es .midi o .mid.
Descargar