SONIDO INICIO GUÍA DE APRENDIZAJE 1_INTRODUCCIÓN 2_ELEMENTOS DEL SONIDO: COMPARACIÓN ENTRE IMAGEN Y SONIDO 3_LAS 3 DIMENSIONES 4_LA MÚSICA EN EL MEDIO AUDIOVISUAL 5_EFECTOS DE SONIDO 6_TRATAMIENTO DEL SONIDO 7_UTILIDAD DEL TRATAMIENTO DEL SONIDO 8_FORMATOS DE AUDIO SONIDO INICIO GUÍA DE APRENDIZAJE 1.-INTRODUCCIÓN Sonido: Definición El sonido es la vibración de un medio elástico, bien sea gaseoso, liquido o solido. Cuando nos referimos al sonido audible por el oído humano, estamos hablando de la sensación detectada por nuestro oído, que producen las rápidas variaciones de presión en el aire por encima y por debajo de un valor estático. Este valor estático nos lo da la presión atmosférica (alrededor de 100.000 pascals) el cual tiene unas variaciones pequeñas y de forma muy lenta, tal y como se puede comprobar en un barómetro. SONIDO INICIO GUÍA DE APRENDIZAJE 2.-ELEMENTOS DEL SONIDO: COMPARACIÓN ENTRE IMAGEN Y SONIDO A continuación, repasaremos los elementos característicos de la imagen comparados con los del sonido, para poder hacernos una idea más intuitiva de cada concepto. "Punto" equivale a "muestra". Una muestra es un registro de sonido que en teoría puede llegar a ser infinitamente pequeño. En la captación de sonido se recoge una cantidad determinada de muestras por segundo. "Línea" equivale a "ciclo sinusoidal". Un ciclo sinusoidal es un conjunto de muestras regular, con un ascenso y un descenso partiendo de cero y llegando a cero. Al igual que líneas curvas, puede haber variaciones en la curva gráfica que muestra un ciclo sinusoidal. "Plano" equivale a "tono sinusoidal continuado". Un tono sinusoidal continuado no se da en la naturaleza: es un pitido constante. Si un plano puede formarse por un conjunto de líneas asignadas una junto a otra, puede surgir el concepto de plano. Pero es una aproximación muy, muy vaga. Otra posibilidad es descartar la existencia del plano y considerar que el "tono sinusoidal continuado" es la línea y que el punto es "el ciclo sinusoidal", descartando la muestra como elemento cognitivo en un primer momento, hasta que se agrupa con otros. Sin duda aquí encontramos la mayor laguna de toda la comparativa. "Color" equivale a "frecuencia". Grave o agudo equivale por lo tanto a tonos fríos o calientes. El color puede producir sensaciones igual que el tono. "Luminancia" equivale a "intensidad" o volumen. Posiblemente es la equivalencia más clara de todas. "Trama" equivale a "trama", porque el concepto es el mismo. La velocidad de registro de muestras determina la calidad definitiva del sonido. Existen sistemas de registro tanto analógicos como digitales con las mismas consecuencias que en el tratamiento de imágenes. Por lo tanto podemos decir que el grano fotográfico equivale muy fielmente a la cantidad de detalle de un disco, y el pixel equivale a una muestra. SONIDO INICIO GUÍA DE APRENDIZAJE 2.-ELEMENTOS DEL SONIDO: COMPARACIÓN ENTRE IMAGEN Y SONIDO "Textura" equivale a "armónicos". Sin duda la mayor satisfacción al crear esta comparativa ha sido observar cómo los equivalentes visuales de los componentes de la textura gráfica son los mismos que los equivalentes sonoros de los armónicos. Puede considerarse todo un éxito. Los armónicos son las variaciones en los ciclos que permiten crean las auténticas formas sonoras: Timbres de voz, armonías, etc. Se aplican al plano, si aceptamos que éste es un tono sinusoidal continuado, y son la combinación de frecuencia y luminancia. Otras comparaciones: Nitidez: Existe una zona en el espectro auditivo que podemos considerar de más nitidez que el resto. Es también la parte que más llama nuestra atención, como los colores calientes. Es la zona de los 1.000 hz. Si se oyen sonidos a diferentes frecuencias, las que se acerquen más a ésta son las que se oirán mejor. Se puede considerar que hay una tendencia natural a distinguir en ella la forma y desechar el resto como fondo. Movimiento y secuencialidad: El sonido es una vibración que depende enteramente del tiempo para su percepción, por lo que podemos decir que no existe sin movimiento, al contrario que la imagen fija. Y como no podemos trasladar el concepto de imagen fija al sonido, tampoco podemos hacerlo con la secuencialidad. Línea sugerida/movimiento sugerido: El hecho de que una reproducción pueda surgir de un número de muestras y que éstas formen tonos similares a los que percibimos en la realidad supone un movimiento sugerido. Sin embargo debemos recordar que no existe el no-movimiento. En cuanto a las líneas sugeridas, es interesante el hecho de que si nosotros tocamos la escala en un piano podemos imaginar el tono que viene a continuación y también formamos una continuidad interna de los medios tonos si se toca lo suficientemente deprisa. Ritmo: Sin duda queda claro que el ritmo en el ámbito del sonido es equivalente a una repetición de elementos en un esquema. No es que aporte temporalidad como en una imagen fija, sino que la refuerza. SONIDO INICIO GUÍA DE APRENDIZAJE 3.-LAS 3 DIMENSIONES El concepto de tridimensionalidad requiere más atención que el resto de los anteriores. Para empezar, la representación gráfica de un registro de sonido es bidimensional. Pero esto no supone que una fuente de sonido sea bidimensional. Por definición, el origen de un sonido se encuentra en un solo lugar, aunque puede haber muchos orígenes de un sonido juntos o el sonido puede rebotar y distribuirse antes de llegar al perceptor. Una señal mono corresponde a un punto determinado de ese plano espacial en el que percibimos datos. Estos son por ejemplo, las radios antiguas de un solo altavoz. Nuestra escucha es biaural. Tenemos dos pabellones auditivos distribuidos a cada lado de la cabeza. Esta escucha biaural tiene como característica que podemos determinar desde qué ángulo del mismo plano se produce un sonido. Un ejemplo realmente interesante es escuchar un CD estéreo de música rock con los altavoces adecuadamente orientados. Nosotros oímos dos fuentes de sonido, pero somos capaces de reconocer que el cantante se encuentra en el centro, el guitarrista a la izquierda y el bajista a la derecha. Esto se debe a que recomponemos desde nuestros dos receptores un universo tridimensional, de una manera abrumadoramente similar a la visión estereoscópica. SONIDO INICIO GUÍA DE APRENDIZAJE 3.-LAS 3 DIMENSIONES Es más, podemos determinar si alguien está delante o detrás gracias a muy complejos cálculos inconscientes. Nuestras orejas están orientadas algo más hacia adelante, y la percepción contrastada de los oídos de una fuente detrás de nosotros no es exactamente igual a la de delante. Este reconocimiento se ve apoyado porque no vemos al sujeto, por leves movimientos de cabeza, etc. Otro aspecto de nuestra percepción tridimensional es la falta de capacidad de determinar la altura a la que oímos. No podemos reconocer si nos hablan desde abajo o desde arriba. Otros animales, como los gatos, tienen orejas móviles, y esto supone una facultad para percibir el origen exacto del sonido. Es evidente que a ellos les hace más falta que a nosotros, por constitución física y costumbres vitales. Volvamos a las fuentes de sonido. El reconstruir los orígenes de las fuentes en un disco en estéreo es una simulación, una sensación acústica, no es real. De hecho, es tan real como una película tridimensional. Los sistemas Surround son una simulación también. Por ahora debemos tener en cuenta que más altavoces no aportan más realidad. Ni siquiera si estuviese un cine tapiado con altavoces sincronizados para ofrecer sonido desde todos los puntos posibles sería completamente real. Además, hay que tener en cuenta que estos sistemas, con los Laboratorios Dolby a la cabeza, no buscan tanto la realidad, sino más bien la espectacularidad. SONIDO INICIO GUÍA DE APRENDIZAJE 4.-LA MÚSICA EN EL MEDIO AUDIOVISUAL Las funciones de la música varían según sea su origen. En este sentido diferenciamos entre música diegética; aquella que pertenece al mundo de los personajes (por ejemplo, en una escena de baile en una película de los años 50, la música de la orquesta que toca en la sala) y la música no diegética: la que existe fuera del mundo de los personajes, y por tanto ellos no la pueden oír. SONIDO INICIO GUÍA DE APRENDIZAJE 4.-LA MÚSICA EN EL MEDIO AUDIOVISUAL Existen determinados formatos musicales destinados a cumplir funciones específicas: Sintonía: caracteriza inequívocamente un programa o producción audiovisual; avisa de su inicio o final. Ráfaga: fragmento de música sin otra finalidad que la de introducir variación o distracción sonora. Cortinilla: fragmento breve utilizado para delimitar y separar secciones de una misma producción. Fondo o ambiente: música incidental, que suele ir mezclada con diálogos o efectos importantes, y que contribuye a mantener una continuidad anímica o estructural. Banda Sonora: suele identificarse como tal la banda musical pero incluye también la banda de efectos y la de diálogos. Pero lo más importante de la música es que transmita algo. La música sugiere. Es un hecho innegable. Es más, por eso existe. Como imagen auditiva que es, trae recuerdos de otras imágenes o sentimientos. Vamos a observar aquí algunos de ellos en una configuración sinfónica: Los timbales y percusiones con gran presencia de frecuencias graves y sobre tonos. En función al ritmo, si son movimientos vivos, denotarán cierta tensión, angustia en algunos casos; en cambio, en un ritmo medio, podrán dar un aire de heroicidad, de gesta, y finalmente, si los movimientos son muy lentos, transmitirán cierto aire de solemnidad. La familia de cuerda (violín, viola, chelo y contrabajo) se utiliza para conferir tonos románticos, apasionados o melancólicos. La familia de madera (oboe, fagot) suele conferir tonos intimistas. Los metales (trompetas, trombón de varas etc.) denotan ritmo, acción. El piano es siempre un elemento para denotar soledad. El flautín denota infancia y candidez. La guitarra española presta siempre un aire latino. Todo esto es cuidadosamente analizado por el compositor de una obra junto al director de la película. Un autor puede dejar una voz femenina con poca carga instrumental en el momento en que hable una mujer en una secuencia romántica y volver a ella (violines, etc.) cuando habla la voz masculina. No se solapan y así se continúa con el aspecto romántico que proporcionaba la voz femenina. SONIDO INICIO GUÍA DE APRENDIZAJE 5.-EFECTOS DE SONIDO Un efecto de sonido puede considerarse como cualquier reproducción auditiva que trate de acompañar a la acción y proporcionar realismo a una producción audiovisual. Los efectos pueden representar objetos, movimientos en el espacio o en el tiempo, estados emocionales, procesos de pensamiento, contacto físico entre objetos, escenarios, entidades irreales, etc. Estos son los diferentes tipos que encontramos, según sea su origen: Efectos originales: Son los procedentes de las tomas de sonido directo o sonido de producción. Estos efectos pueden ir en sincronía con determinadas imágenes o ser independientes de ellas, si bien su origen sigue siendo los lugares del rodaje. Cuando la planificación de la producción establece la grabación de sonidos originales hay que conseguirlos con la máxima nitidez sonora posible Los efectos originales tienen los inconvenientes de que es difícil hallar lugares lo suficientemente tranquilos y silenciosos que garanticen una buena grabación, y que muchos eventos naturales son poco controlables y difícilmente repetibles. Por todo ello los efectos originales a menudo requieren de algún tipo de procesado posterior antes de incluirlos en la banda sonora. Efectos de sala: Son sonidos que reemplazan los sonidos de ambiente y los efectos que se pierden cuando se doblan diálogos o se graban en directo. En general los efectos de sala acostumbran a ser pasos, roces de ropa, ruidos domésticos, puertas que se abren y se cierran, etc., y para su grabación los estudios disponen de suelos de superficie variable. Efectos típicos de sala son los pasos de un caballo creados a partir de golpear cocos contra un suelo de tierra o de grava, la lluvia creada a partir de volcar tierra sobre un papel situado encima del micrófono, los sonidos de comida friéndose creados a partir de poner trapos mojados sobre una superficie ardiente, los truenos creados a base de sacudir un globo lleno de perdigones o bolitas de plomo, o el fuego creado arrugando papel celofán. Los efectos de sala no siempre tienen que ser lo que definitivamente vaya a sonar: posteriormente pueden procesarse o acumularse unos sobre otros hasta conseguir el tipo de sonido que mejor se adecue. Efectos de colecciones o de bibliotecas: Las colecciones en discos son el recurso más utilizado a la hora de construir la banda sonora de una producción audiovisual. Suelen venderse en sitios especializados y están organizadas temáticamente con categorías tales como transporte, naturaleza, domésticos, electrónicos, exteriores, humanos, etc. SONIDO INICIO GUÍA DE APRENDIZAJE 5.-EFECTOS DE SONIDO Efectos electrónicos o sintéticos: Oskar Fischinger desarrolló técnicas que consistían en la manipulación de la pista óptica de la película, pintándola a mano, por ejemplo. Ya en los años 50 algunos creadores de efectos de sonido construyeron máquinas especiales para generar determinados tipos de efectos, y también son de aquella época los primeros sonidos verdaderamente sintéticos. No obstante, hasta los años 70 los sintetizadores y otros dispositivos electrónicos no empezaron a funcionar a gran escala. Además empezó a utilizarse el denominado Sampler, que es un sistema electrónico para colocar efectos en tiempo real. Los sonidos pueden ser naturales, es decir, que el efecto sea el sonido del mismo objeto que lo ha producido o falseado, a esto se lo denomina "sonido característico". Es una imitación del objeto que está sonando. Un sonido característico puede reconocerse, pero no es el original de la fuente sonora sino aquél que se supone, o que se supone que el oyente puede suponer, que ha de tener la fuente sonora. La deformación o imitación de un sonido característico se hace con el fin de intensificar el impacto sobre el espectador. Un ejemplo muy interesante ocurrió en USA: durante muchos años todos los anuncios de automóviles utilizaban el mismo sonido, el de un Deussenberg del 35, debido a que su timbre no enmascaraba las voces de los locutores y realmente "parecía un coche"; para el oyente especialmente si no era demasiado entendido en sonidos de coches el efecto utilizado era apropiado, aunque no fuera el que correspondía en realidad al coche que se promocionaba. Los sonidos tienen distintas funciones en las producciones audiovisuales: Sonidos objetivos: aquellos que suenan a consecuencia de la aparición de la imagen de un objeto que emite el sonido. Un sonido objetivo suena como se supone que sonará el objeto que aparece en la imagen (no necesariamente suena exactamente como lo hace en la realidad). Sonidos subjetivos: aquellos que apoyan una situación anímica o emocional de la trama o de los personajes, sin que necesariamente el objeto productor del sonido aparezca en la imagen. Sonidos descriptivos: aquellos que no representan a ningún objeto de los que aparecen en la imagen, sino que son abstracciones o idealizaciones de los sonidos supuestamente originales (aquellos que podríamos escuchar). Podemos considerarlos como sonidos metafóricos. SONIDO INICIO GUÍA DE APRENDIZAJE 6.-TRATAMIENTO DEL SONIDO Antes de adentrarnos en las posibilidades que ofrece el control de unas muestras de audio y su tratamiento expresivo, vamos a tener en cuenta algunos recursos básicos que posibilitan el tratamiento: El efecto de reverberación, los procesos dinámicos y la ecualización. • El efecto de reverberación consiste en copiar una muestra del espectro de sonido y repetirla. Existen varios parámetros que se pueden cambiar, entre ellos el tiempo que tarda en repetirse, el volumen que tiene la nueva repetición, etc. Este es posiblemente el efecto más importante del procesado de sonido. Es relativamente simple y rápido de tratar y está muy estudiado. La reproducción electrónica produce unos efectos similares a los de la naturaleza, en la que el ejemplo más claro que se puede encontrar es el del eco: Decimos algo en voz alta y se nos repite más bajo y con rasgos ligeramente distintos hasta desaparecer. Existe otro parámetro importante: La naturaleza de reflexión de sonido de la superficie en que rebota. SONIDO INICIO GUÍA DE APRENDIZAJE 6.-TRATAMIENTO DEL SONIDO Algunos modos de transformar el timbre basados en retardo: • El efecto Flanger es un filtrado periódico (en forma de peine) de una serie de frecuencias determinadas por el tiempo de retardo, aunque explicarlo con palabras es poco efectivo. El origen del Flanger es mecánico: si al grabar una cinta en un magnetofón presionamos con el dedo de vez en cuando y con fuerza variable la bobina que entrega cinta originamos micro-frenazos que alteran la señal original. Si grabamos simultáneamente en 2 magnetofones, y en uno aplicamos el "flanging" manual mientras que en el otro no, generaremos el barrido característico del efecto de flanger. El flanger proporciona efectos más llamativos cuanto más rico, armónicamente hablando, sea el sonido. • Chorus se utiliza para engrosar la señal, o para simular la existencia de varios instrumentos sonando al unísono. Se simula la imperfección de un coro. En esta situación, un intérprete puede atacar con cierto retraso y desafinar ligeramente respecto a otro intérprete; eso es lo que se trata de simular, de manera compacta. Su funcionamiento es similar al del flanger (sólo que la señal que sale se filtra y se realimenta). Las transformaciones de dinámica se refieren al control del volumen y a la relación de volumen entre la señal y el ruido. Esto supone no simplemente oír con más o menos intensidad, sino que ofrece numerosas posibilidades: • Los denominados compresores dotan de intensidad a las frecuencias de menor volumen y restan a las de mayor volumen. Esto produce más fuerza a la hora de trasmitir susurros, por ejemplo, y hacen que el volumen total sea uniforme. • Las puertas de ruido eliminan las muestras de audio de menor intensidad. Estos filtros sirven para eliminar los sonidos indeseables a partir un umbral mínimo de ruido y resultan especialmente útiles. • Los limitadores consisten en que la intensidad del sonido no suba de las cotas fijadas para que no se oigan muestras más altas de lo deseable. Un procedimiento también muy útil. SONIDO INICIO GUÍA DE APRENDIZAJE 6.-TRATAMIENTO DEL SONIDO • El proceso de normalización consiste en limitar la señal de audio y hacer que el resto del espectro se adapte a este límite. Si se pone un límite por arriba, todo el sonido se ajustará proporcionalmente. Se utiliza para que una obra prolongada o una emisión mantenga la misma intensidad constantemente. • Los extensores realizan la función contraria a los compresores: bajan las frecuencias bajas y suben las altas. • Mediante la ecualización podemos modificar y alterar la señal en base a tres parámetros: Se elige la frecuencia que se va a alterar, se elige la anchura de banda por encima y por debajo de esa frecuencia y se decide cuánto se amplifica o atenúa. El efecto resulta en un realzado de unas partes de una obra. Podemos cambiar una pieza musical grabada dando más fuerza a los bajos y menos a los agudos sin alterar el volumen, porque lo subimos en una parte y lo bajamos en otra. Tanto en mesas de mezclas analógicas de sonido como en diversos programas informáticos de tratamiento de sonido podemos encontrar una serie de filtros que tienen una función similar a la ecualización: Pasa-banda: dejan intacta la señal que se halle en torno a una determinada frecuencia central eliminando el resto. Sirve para eliminar fragmentos pequeños de ruido. Pasa-bajos: dejan intacta la señal que exista por debajo de una determinada frecuencia de corte eliminando el resto. Sirve para eliminar agudos. Pasa-altos: dejan intacta la señal que exista por encima de una determinada frecuencia de corte (por ejemplo, el filtro de 80/100 Hz que habitualmente llevan las mesas de mezcla) eliminando el resto. Sirve para eliminar tonos graves. Filtros de rechazo de banda o notch: eliminan la señal que se halle en torno a una determinada frecuencia central. Sirve para aislar un sonido concreto. Filtros en escalón o shelving: atenúan o amplifican la señal a partir de una determinada frecuencia de corte, pero sin ser tan abruptos como los pasaaltos y pasa-bajos (los controles de graves y agudos de los amplificadores domésticos y algunas secciones de los ecualizadores de las mesas de mezclas suelen ser de este tipo). La mayoría de filtros analógicos o digitales adicionales a los anteriores consisten en combinaciones más o menos complicadas de los mismos. SONIDO INICIO GUÍA DE APRENDIZAJE 7.-UTILIDAD DEL TRATAMIENTO DEL SONIDO En el mundo del sonido existen equivalentes a los encuadres visuales. El concepto de planos sonoros indica las relaciones existentes entre las diversas fuentes que coexisten en una banda sonora, es decir, las diferentes voces, la música y los efectos. Hay cuatro tipos de planos básicos: El narrador: Son las voces en off que buscan cercanía al espectador. Se utiliza mucho el efecto de compresión y se le dota de más intensidad que al resto. Como sensación resultante sentimos que quien nos habla se encuentra cerca. Ésta es la función principal de los compresores mencionados anteriormente: cuando oímos más altas las frecuencias de poca intensidad, nos invade la sensación de que nos hablan muy de cerca. Las voces susurrantes salen muy reforzadas con este sistema. El primer plano: Cuando vemos a alguien en pantalla y éste debe ser el centro de atención, también debe tratarse con fuerza su muestra de audio. Por ejemplo, la voz del protagonista manteniendo una conversación. El mezclador debe tener cuidado de que sea él (el personaje centro de atención) quien se oiga principalmente, aunque haya otros sonidos de fondo. Por supuesto, la música también puede estar en primer plano. El segundo plano: Es un concepto difícil de explicar. No es lo que llama la atención pero se oye. Puede ser una conversación en secundaria a la que no prestamos atención (o no debemos). Se utiliza como recurso expresivo dando un segundo plano a los personajes que están en primer plano y se va cediendo la atención a otros. También sirve de ejemplo el sonido de un televisor que no es el centro de atención. Literalmente, lo oímos en segundo plano. El tercer plano: Consiste en el conjunto de sonidos que no tiene una relevancia especial, el ejemplo más ilustrativo es el de gente en un bar hablando sin que nos demos cuenta de qué dicen. SONIDO INICIO GUÍA DE APRENDIZAJE 7.-UTILIDAD DEL TRATAMIENTO DEL SONIDO Hay otros aspectos que deben tenerse en cuenta a la hora de dar un tratamiento al sonido. Uno de ellos es la ambientación. Existen diferencias entre un espacio abierto y un espacio cerrado tanto en el tratamiento de la fotografía como en el del audio. Mientras, generalmente, la voz en un espacio abierto suena natural, en un espacio cerrado suena reverberada dependiendo de los materiales y la arquitectura del entorno. Existen diferentes modelos de reverberación para cada situación. Incluso los hay prefijados para habitaciones, grandes salones, etc. La ecualización se utiliza mucho para restar calidad al audio. Este es un recurso expresivo también importante en algunos casos: Mediante esta técnica se simulan llamadas telefónicas, voces en la radio, etc. No sólo tiene esta función expresiva, también tiene una función correctiva, porque ayuda a disminuir partes no deseables. Pero lo interesante es tratar la música con este sistema. Si se realza una parte de alta frecuencia del espectro, se da más brillo, si se realzan los bajos, quedan tonos más sombríos. Nótese una vez más que se utilizan expresiones típicas de las imágenes visuales. Para las voces también se aprovecha este sistema, realzando graves en los hombres, agudos en las mujeres y los niños o cualquier aspecto que los realizadores pretendan manipular, por ejemplo, si queremos que una persona se oiga en un segundo plano a través de una pared con suficiente calidad pero con algo de dificultad para que se le entienda. Otro asunto digno de mención es la forma de solapar música con voz. Para que la música no impida escuchar un diálogo se limita el volumen, se normaliza y luego se ecualiza reduciendo su fuerza en la zona de los 1.000 hz. El resultado es que las voces se entienden mejor, porque el oyente no tiene obstáculos que impidan reconocer, bien la parte que capta nítida en el espectro, mientras que de fondo, nunca mejor dicho, se escucha la composición musical. SONIDO INICIO GUÍA DE APRENDIZAJE 8.-FORMATOS DE AUDIO Empezaremos a explicar los tipos de archivos de sonido que existen distinguiendo entre aquellos que clasificamos con pérdida y sin pérdida. • Los archivos de sonido con pérdida son aquellos que usan un algoritmo de compresión con pérdida, es decir un tipo de compresión que representa la información (por ejemplo una canción), pero intentando utilizar para ello una cantidad menor de información. Esto hace que sea imposible reconstruir exactamente la información original del archivo. Se podrá reconstruir tan solo una aproximación a la información original que contenía el archivo. El empleo de estos métodos de compresión con pérdida suele usarse en información analógica que quiere digitalizarse, como por ejemplo imágenes, audio, vídeo etc. Además tiene la gran ventaja de que obtendremos datos digitalizados que ocupan menos espacio en disco. • Los archivos de sonido sin pérdida son aquellos que usando o no métodos de compresión, representan la información sin intentar utilizar menor cantidad de la información original. Hacen posible una reconstrucción exacta de la información original. SONIDO INICIO GUÍA DE APRENDIZAJE 8.-FORMATOS DE AUDIO Archivos de sonido con pérdida: • MP3 o MPEG-1 Audio Layer 3: Es un formato de audio digital estándar comprimido con pérdida, la pérdida de información del formato mp3 no es audible por el oído humano, por tanto no distinguiremos la diferencia entre un archivo de audio sin compresión y un archivo mp3. Además un archivo mp3 consigue reducir el tamaño del archivo de sonido sin influir en su calidad, aproximadamente 1 minuto de audio en formato mp3 ocupa 1 MB con una calidad prácticamente igual a la calidad de Cd. Estas ventajas han conseguido que el formato mp3 pueda ser reproducido en casi todos los reproductores de audio, que sea el formato por excelencia para el intercambio a través de internet, una de las mejores opciones en estos momentos para almacenar música con buena calidad, y también el formato de audio que más se utiliza en reproductores portátiles, es un estándar y por tanto la compatibilidad con todos los medios está garantizada. El formato de audio mp3 permite seleccionar la calidad del audio que vamos a comprimir, la calidad de cd sería equivalente a 128 Kbps (Bit rate), pero podemos seleccionar la compresión entre los 8 Kbps y los 320 Kbps teniendo en cuenta que cuanto mayor sea la transmisión de datos (Kbps), mayor espacio ocupará el archivo. La frecuencia de muestreo del mp3 se encuentra entre los rangos de 16 Hz y los 48 KHz. Y tan solo soporta 2 canales (estéreo) • ACC o Advanced Audio Coding: Es un formato de audio digital estándar como extensión de MPEG-2 comprimido con pérdida, ofrece más calidad que mp3 y es más estable para un mismo número de Kbps y un mismo tamaño. Su compresión está basada en los mismos principios que la compresión MP3, con la diferencia de que ofrece la posibilidad de emplear frecuencias de muestreo del rango de entre 8 Hz hasta los 96 KHz. El método de codificación adapta automáticamente el número de Kbps (Bit rate) necesarios en función de la complejidad de la transmisión de audio en cada momento. ACC soporta 48 canales distintos como máximo, lo que lo hace indicado para sonido envolvente o Surround y sonidos polifónicos, es decir que sería una buena opción en caso de no escuchar el audio en cualquier sistema de audio de dos canales (estéreo), y en el caso de películas, vídeo o en caso de disponer de un reproductor compatible conseguiremos reducir el tamaño del archivo. Es más eficiente que MP3 en casi todos los aspectos, ofrece mayor calidad y archivos de menor tamaño, pero no goza por el momento de la compatibilidad y la popularidad del MP3. Es compatible con los dispositivos de la marca Apple, iTunes, iPods, Winamp, Ahead Nero, MP4 etc. SONIDO INICIO GUÍA DE APRENDIZAJE 8.-FORMATOS DE AUDIO • Ogg: Es un formato de audio digital comprimido con pérdida. Normalmente los archivos Ogg están comprimidos con el códec Vorbis, que es un códec de audio libre que permite una máxima flexibilidad a la hora de elegir entre la amplia gama de bitrates según la complejidad de la transmisión de audio, en la relación calidad-bitrate, se encuentra parejo con MPEG-2 y en la mayoría de los bitrates es comparable al formato ACC. Este formato está pensado para codificar desde la calidad de telefonía 8kHz hasta la calidad de alta definición 192 KHz, y para sistemas monoaurales, estereofónicos, polifónicos, cuadrafónicos, 5.1, ambisónicos y hasta 255 canales discretos. Los bitrates disponibles van desde 32 Kbps hasta 500 Kbps. El formato Ogg ofrece una mejor fidelidad de sonido entre 8 KHz y 48 KHz que el mp3 y sus archivos ocupan menos espacio. En cuanto a compatibilidad, tampoco es un formato todavía tan universal como el mp3 pero cada vez más dispositivos y programas lo reconocen y pueden trabajar con él. • Real Audio o RM: Es un formato de archivo pensado para las transmisiones por internet en tiempo real, por ejemplo las radios que emiten online o cuando un servidor tiene un archivo de sonido almacenado y nosotros lo escuchamos sin que el archivo se cargue por completo ni se almacene en nuestro ordenador, esto es posible gracias al proceso de Buffering que básicamente es recibir un paquete de sonido en nuestro reproductor en este caso (Real Player) mientras el siguiente se almacena en la carpeta de temporales hasta que sea requerido por el reproductor. Con este sistema los archivos no pueden ser copiados. A diferencia de la codificación con MP3 que mantiene su rango de frecuencia de muestreo (Kbps), la codificación con Real Audio permite adaptarla a la capacidad del recepción del usuario dependiendo de su velocidad de conexión a internet. Si el usuario puede recibir paquetes de audio de alta calidad sin interrupciones, se los manda, si no bajará la frecuencia de muestreo hasta que pueda recibirlos sin interrupciones aunque la calidad del audio disminuya. • WMA o Windows Media Audio: Es un formato de compresión de audio con pérdida aunque también existe este formato con compresión sin pérdida. Está desarrollado básicamente con fines comerciales para el reproductor integrado en Windows, Windows Media Player. Está por debajo del nivel de los anteriores formatos. SONIDO INICIO GUÍA DE APRENDIZAJE 8.-FORMATOS DE AUDIO Archivos de Sonido sin pérdida: • AIFF o Audio Interchange File Format que significa Formato de Archivo de Intercambio de Audio, es un estándar de formato de archivo de audio para vender datos de sonido para ordenadores, usado internacionalmente por los ordenadores Amiga y actualmente muy utilizado en los ordenadores Apple. Los datos en AIFF no están comprimidos, y usan una modulación por impulsos codificados o PCM. También existe una variante estándar conocida como AIFC que sí posee compresión. AIFF es uno de los formatos líderes, junto a SDII y WAV, usados a nivel profesional para aplicaciones de audio ya que está comprimido sin pérdida lo que permite un rápido procesado de la señal a diferencia del MP3 por ejemplo, pero la desventaja de este tipo de formatos es la cantidad de espacio que ocupa, que es aproximadamente 10MB para un minuto de audio estéreo con una frecuencia de muestreo de 44.1kHz y 16 bits. Además el estándar da soporte a bucles para notas musicales para uso de aplicaciones musicales o samplers, sus extensiones son .aif, .aiff y .aifc para la variante. • FLAC o Free Lossless Audio Codec: es otro códec de compresión sin pérdida, y consigue reducir el tamaño de un archivo de sonido original de entre la mitad hasta tres cuartos del tamaño inicial. El formato FLAC se suele usar para la venta de música por internet, y como alternativa al MP3 para compartila cuando se desea reducir el tamaño que trendría un archivo WAV-PCM sin perder calidad, ya que con este tipo de compresión podremos reconstruir los datos originales del archivo. También se suele usar para realizar copias de seguridad de CDs de audio y admite cualquier resolución PCM de 4 a 32 bits, y cualquier bitrates según la complejidad de la transmisión de audio, en la relación calidadbitrate, se encuentra parejo con MPEG-2 y en la mayoría de los frecuencia de muestreo (sample rate) desde 1 a 65535KHz, en incrementos de 1Hz. SONIDO INICIO GUÍA DE APRENDIZAJE 8.-FORMATOS DE AUDIO • WAV o wave: Waveform Audio Format es un formato de audio digital sin compresión que se emplea para almacenar sonidos en el ordenadores con windows, es una formato parecido al AIFF pero tomando en cuenta peculiaridades de intel. Puede soportar casi todos los códecs de audio, se utiliza principalmente con PCM (no comprimido). Se usa profesionalmente, para obtener calidad de CD se debe grabar el sonido a 44100 Hz y a 16 bits, por cada minuto de grabación de sonido se consumen unos 10 megabytes de disco duro. Y su limitación es que solo puede grabar archivos de 4GB que son aproximadamente unas 6 horas y media de audio en calidad CD. No se usa a penas para compartir música por internet, ya que existen otros formatos de audio sin pérdida que reducen mucho más el tamaño de los archivos. • MIDI: Interface Digital para Instrumentos Musicales, es considerado el estándar para industria de la música electrónica. es muy útil para trabajar con dispositivos como sintetizadores musicales o tarjetas de Sonido. Su extensión es .midi o .mid.