Tema 1. Introducción al sonido analógico 1.1. Introducción

Anuncio
Tema 1. Introducción al sonido analógico
1.1. Introducción
1.2. Características del sonido analógico
1.3. La forma de onda
1.4. El oído humano y el espectro audible
Tema 2. Digital o analógico
2.1. El audio digital. El sistema binario
2.2. La conversión analógica digital
2.3. Niveles de funcionamiento en audio digital
Tema 3.El estudio de grabación.
3.1. Estructura del estudio / tipos de estudio
3.2. La acústica del estudio y conexionado
3.3. El control y el monitoreo
3.4. La mesa de mezcla. Características y tipos
Tema 4. Micrófonos de estudio y de directo
4.1. Características de los micrófonos
4.2. Micrófonos. Clasificación según directividad y construcción
4.3. Conexionado de micrófonos
Tema 5. Metodología de una grabación
5.1. Introducción a la grabación
5.2. Preparación y ajustes del equipo
5.3. Procesadores de efectos y de dinámica
Tema 6. La edición de audio digital
6.1. Edición destructiva y no destructiva
6.2. Las acciones de edición
1
6.3. Formatos de almacenamiento y master
Tema 7. El directo en cine
7.1. El equipo de directo
7.2. La documentación y clasificación del material
7.3. Posicionamiento de micrófonos y accesorios
práctica
Tema 8. La post−producción. El pro−tools
8.1. El programa y su metodología de trabajo
8.2. Conceptos esenciales del programa
8.3. Introducción a la sincronización con imagen
8.4. El control y arrastre de maquina
8.5. Exportación e importación de archivos
Tema 9. La sincronización con la imagen
9.1. la sincronización y sincronizadores
9.2. El código de tiempo
9.3. La sincronización digital y analógica
Tema 10. La premezcla y mezcla
10.1. El estudio de mezcla en cine y televisión
10.2. La mezcla final
10.3. La mezcla m+e. La banda internacional
10.4. El print−master
10.5. La mezcla para televisión
Tema 11. Sistemas de codificación y reproducción
11.1. La codificación dolby−dts−sdds
11.2. Sistemas de reproducción del sonido en cine. Thx
Tema 12. El sonido en espectáculos audiovisuales
2
12.1. El sonido p.a.
12.2. Características del p.a.
12.3. El equipo p.a. normas de funcionamiento
TEMA 1:. EL SONIDO ANALÓGICO
1:. INTRODUCCIÓN
El sonido audible es analógico, sin embargo el digital no.
Sonido: es la vibración de las moléculas de un medio transmisor, ya sea gaseoso, líquido o sólido. Para que se
produzca un sonido se necesita un medio.
Se propaga con una velocidad dada (varía según el medio):
Aire: 343 m/sg
Agua: 1483 m/sg
Acero: 5060 m/sg
Las variables dependen del medio y de la temperatura:
• A mayor densidad del medio mayor velocidad de propagación
• A menor temperatura mayor velocidad de propagación
Ej: el aire a 20º ! 343 m/sg y el aire a 0º ! 760 m/sg.
2:. CARACTERÍSTICAS DEL SONIDO ANALÓGICO
Campo Sonoro: son las superficies que delimitan un campo acústico. Un campo sonoro siempre está inmerso
en un medio.
No todos los sonidos se propagan y comportan de la misma manera:
• Graves: su forma de difusión es circular o elíptica
• Medio
• Agudo
.: Características básicas del sonido:.
TONO: es la magnitud subjetiva (propia de cada persona: cómo entendemos lo grave, agudo o medio) del
sonido que se refiere a su altura o gravedad. Son los controles de una mesa de ecualización.
FRECUENCIA: es la magnitud objetiva del sonido y medible. La unidad de medida es el Hertzio (Hz = una
vibración por segundo).
En sonido se utiliza el Kilo Hertzio para referirse a los tonos agudos (KHz = 1000 Hz)
!Tonos Agudos ! 2 KHz a 20 KHz
3
!Tonos Medios ! 600 Hz a 1 KHz
!Tonos Graves ! 20 Hz a 400 Hz
El oído humano tiene un ancho de banda de audición de 20 Hz a 20 KHz (por encima y por debajo no oye).
TIMBRE: es la cualidad del sonido que nos permite diferenciar el sonido de dos instrumentos cuando ambos
interpretan la misma nota. EJ: Piano ! LA: frecuencia de 440 Hz ! Flauta ! LA: frecuencia de 440 Hz
3:. LA FORMA DE ONDA
Nos basamos en la Frecuencia armónica o el Análisis de Fourier:
Pero el sonido se compone no sólo de esta onda Fundamental sino también de múltiples de la fundamental:
El 1er armónico (más cerca del fundamental): Armónico Fundamental, dependiendo del nº de armónicos
podré diferenciar el timbre. Varían en intensidad, siempre menor a la fundamental.
4:. EL OIDO HUMANO Y EL ESPECTRO AUDIBLE
.:Funcionamiento del oído:.
Las vibraciones son captadas por el pabellón auditivo que por los pliegues y repliegues realizan una
ecualización del sonido. Esas vibraciones pasan por el canal auditivo hasta llegar al tímpano (membrana que
capta vibraciones y vibra ! más rápido con frecuencias altas). Esas vibraciones llegan a unos huesos
(yunque...) que amplifican 15 veces. Esas vibraciones llegan al caracol donde se convierten en presión y
depresión hidráulica (caracol está lleno de un líquido sinovial). Llegan al órgano de Corti, el cual convierte
esas presiones y depresiones en impulsos eléctricos que a través del nervio auditivo llegan al cerebro y se
produce la sensación de oír.
ESQUEMA HUMANO:
Sonido ecualizador tímpano huesos caracol señal eléctrica nervio
.:Funcionamiento de un micrófono:.
Las ondas se presión son captadas por el micrófono: en su interior hay una membrana, al vibrar llega a una
bobina que pasa a una mesa de mezclas donde se ecualiza y pasa a un amplificador para poder ser escuchado
multiplicado por 20. De ahí se llevan a unos altavoces que cambian la señal eléctrica en ondas de presión.
ESQUEMA:
X 20
Nuestros oídos son capaces de captar sonidos en 180º, omnidireccional (diagrama de captación).
INTENSIDAD: es una magnitud objetiva (=frecuencia) que hace referencia a la potencia acústica ! I =
W/cm2 (vatios).
SONORIDAD: es la sensación subjetiva propia de cada uno; se mide en S = Belios ! una unidad más
pequeña: decibelios. Es subjetiva porque depende de cada persona (sordos).
4
TEMA 2:. SONIDO DIGITAL
2.1:.EL AUDIO DIGITAL. EL SISTEMA BINARIO
Las primeras técnicas de grabación sonoro se hacía variar algún parámetro mecánico, eléctrico o magnético,
del mismo modo en el que el sonido que vamos a grabar había variado la presión del aire.
Señal eléctrica
AUDIO ANALÓGICO:
En un sistema analógico la información se obtiene mediante la variación de un parámetro continuo como
puede ser la tensión en un hilo conductor. En un equipo de grabación la distancia a lo largo del soporte físico
es también un elemento continuo y equivalente al tiempo.
Usar unas bobinas de cinta magnética que el tiempo de lo que queremos grabar deberá tenerlo también la cinta
(60 m).
Relación del soporte donde se hará la grabación y el tiempo de grabación.
Los equipos de grabación poseen elementos mecánicos que permiten variar la velocidad de arrastre, es preciso
que sea también un elemento continuo:
17 rev/m − 33 rev/m − 45 rev/m
Tensión / Velocidad / tiempo ! continuo.
En el audio analógico si modifico la velocidad de arrastre del soporte obtengo una señal de audio válida
(audible). En el audio digital eso no ocurre.
AUDIO DIGITAL:
Un equipo de grabación digital tiene las mismas características que un equipo de grabación analógico ideal
(de muy alta gama; ej: las BSO, la mezcla se sigue haciendo en analógico, calidad similar al digital).
DIGITAL ANALÓGICO
Mini−Disk (30.000) con igual calidad! DASH (700.000)
2.2:. PROCESO DE CONVERSIÓN ANALÓGICA DIGITAL.
El sistema AD / DA:
S.E S.E
Convertidor
PCM
El convertidor AD convierte la señal analógica en código binario, esa señal digital necesita volver a
convertirla en señal analógica, es necesario un convertidor DA que iría al altavoz que vuelva a provocar esas
ondas de presión.
5
El sistema DA se basa en un esquema llamado PCM (Sist. De codificación por impulsos).
I A intervalos
T = 1 sg
Frecuencia de Muestreo
T1= 3 ! 01001001001
T4= 4 ! 10010010010
La sucesión de valores que el resultado es una cadena se conoce como PALABRA DIGITAL. A intervalos de
tiempo regulares, el Sist. PCM va tomando muestras de audio y lo que obtengo es una descomposición de la
señal continua en infinidad de puntos.
La señal analógica es continua, la digital no. El audio digital es un sucesión de valores y el resultado es una
cadena de código binario que se le conoce como: PALABRA (01001001..)
Cuando la frecuencia de muestreo equivale a 44,1KHz (he tomado 44.100 muestras en 1sg), una cadena
digital debe tener como calidad mínima 44,1KHz = 16 BITS equivalen a una palabra digital.
CD ! 44,1KHz = 16 BITS en calidad CD
DVD ! s canales en alta calidad ! 96KHz = 24 BITS (en 1sg analiza 9.600 muestras, y la información de bits
mucho mayor)
DLT (Audio en cine digital)! 2 canales = 132KHZ = 32 BITS
A mayor frecuencia de muestreo, mayor calidad:
!FM = ! calidad.
Philips
− DVD Audio 96KHz ! 5.1− mantiene la calidad CD
Pioneer
Sony
− Super Audio CD ! SACD
JVC
El sistema 5.1 (Dolby) L C R
Dentro de esta palabra destacamos el primer y último digito:
0100101001011001
MSB LSB
6
El BIT de mayor significado El BIT de menor significado
El sonido digital tiende a imitar al analógico ! conseguir continuidad. El sistema analógico al hacer una copia
se pierden generaciones.
En digital no, se clona la información del Master sin perder calidad. También el soporte en el que se registra el
sonido digital tiene una vida ilimitada (CD utilizable y reutilizable). El mantenimiento en analógico se
almacena en un sitio controlado y cuidado en comparación con el digital. Además de que el espacio en
analógico (cinta abierta) es mayor y más cara.
El sistema digital tiene un inconveniente, los ecualizadores digitales necesitan un reloj que enclava la
sincronización.
CD 48HKz mesa de mezclas 48KHz PC
Esta cadena debe llevar un reloj que lo sincroniza, implícita en la frecuencia de muestreo
44,1KHz
RELOJ
48KHz ! BROADCAST: la calidad (por encima de la normativa mínima)
El Mini−Disk ! 32KHz : menos calidad, no profesional.
CD! 44,1KHz
Por ello usan el DAT (Digital Audio Tape ! 48KHz)
Caso:
48KHz 44,1KHZ
JITTER
Se corta porque no están enclavados, no así con analógico: 33rpm ! 45rpm
JITTER: efecto que surge al no enclavarse los sistemas.
En una cadena de grabación tengo que todos son de 48KHz pero que pro fabrica vengan descuadrados:
DAT ! 48khz ! 47,999KHz
MESA ! 48KHz ! 48,001KHz JITTER
Protools ! 48KHz ! 48,025KHz
A medida que avanza el proceso de grabación se desajusta y se produce el efecto Jitter; para ello existe un
generador de sincronismos llamado HOUSE SYNC / BLACK BURST : 48KHz que generan una señal de
reloj maestra para todos los equipos.
En vez de ajustarse cada uno de los sistemas a su reloj interno se ajustan a uno externo.
7
2.3:. NIVELES DE FUNCIONAMIENTO EN AUDIO DIGITAL
Un equipo analógico posee elementos que miden la sonoridad de la señal llamados PPM (Program Peak
Meter: medidor de programa). Hay o de Aguja o de LEDS :
LEDS: tienen una escala que va de 70dB a 0dB: +1, +2, +3,......
En el audio analógico es correcto usar lo verde: la zona de funcionamiento óptimo, por encima suele ser rojo y
es la saturación o HEAD ROOM, que puedo usarlo como zona de funcionamiento siempre que no estemos
constantemente en él.; el oído no percibe esas imperfecciones si son inconstantes.
En el audio digital se sigue teniendo PPM peor no existe zona HEAD ROOM (−70dB). El 0dB digital no
equivales al 0dB sino a −18dB digital. Me permite tener mucho más rango dinámico (desde −18dB a 0dB) y
el 0dB es la zona de recorte.
TEMA 3:. EL ESTUDIO DE GRABACIÓN
El control sala sorda
Estructura El Locutorio / sala de grabación. Tipos sala brillante Cuarto de maquinas Mixtas(Dolby)
Distancia entre oyentes y la fuente sonora
Acústica S = s. directo + s. reflejado
Naturaleza de las superficies (HAAS / ECO)
• Sala sorda: producción audiovisual (sala de doblaje) predomina la absorción de sonido.
• Sala Brillante: predomina la reflexión del sonido. Para grabar música (sala para grabar una batería).
• Salas Mixtas: se combina absorción con reflexión (acústica de cine: Dolby). Las salas brillantes
pueden modificar su acústica poniendo paneles que tiene por una cara reflexión y por la otra
absorción.
Cuarto de máquinas: se ubican aquellos elementos que pueden interferir en una grabación: magnetófonos,
ordenadores; cualquier sonido que provoquen las máquinas en control se cambian de lugar.
3.2:. LA ACÚSTICA DEL ESTUDIO Y CONEXIONADO
• Reverberación: es la suma de las reflexiones del sonido que llegan al lugar del oyente en diferentes
momentos de tiempo. Auditivamente se caracteriza por una prolongación a modo de cola sonora que
se añade al sonido original. La duración y la coloración tímbrica de esta cola depende de 2 valores:
• La distancia entre el oyente y la fuente sonora.
S = SD + SR
• La naturaleza de las superficies que delimitan el campo sonoro:
−Materiales de naturaleza porosa: absorción (sorda), ej: pared acolchada.
−Materiales pulimentados: reflexión (brillante), ej: madera barnizada (resonadores), cristal, piedra.
8
El sonido directo: la trayectoria es más corta por lo que escucharemos primero esto que el reflejado.
Para escuchar el sonido en su totalidad, la reflexión del sonido debe ser menor a 50 msg y tiene que tener una
presión sonora superior a 60 dB, porque la presión ambiente es de 60dB y lo enmascararía.
• < 50 msg y ! 60 dB se produce el efecto HAAS o efecto precedencia.
• > 50 msg ! efecto ECO.
En un estudio se puede crear estos efectos por medio de una reverberación artificial. Parámetros:
· Tiempo de decaimiento: es le parámetro con el que conseguimos que el sonido reverberado disminuye 60dB
(TR60)
· Retardo de las primeras reflexiones.
· La intensidad de las reflexiones: marcamos la distancia entre la fuente sonora y el ambiente. Si está lejos la
intensidad será menor y la reflexión mayor.
PRINCIPALES CONECTORES:
• EQUIPOS ANALÓGICOS:
• Gama Profesional:
• XLR (canon): posee 3 canales; al tener este canal de masa permite proteger nuestro audio de ruido
electromagnético. (También para señales de micrófono).
• JACK (stereo): tiene dos separadores de plástico que separan los canales. Se usa también en el
entorno doméstico para los cascos (mini−jack), ya que va:
+ Canal izquierdo
− Canal derecho
masa Canal negativo
* El Jack mono y stereo también se llaman TRS.
• Gama doméstica: +
◊ JACK (mono): tiene dos canales. No tiene canal de masa. −
◊ RCA: dos canales y se utiliza para entornos domésticos
♦ EQUIPOS DIGITALES:
• Conectores profesionales:
♦ XLR: no tiene 3 canales. No afecta las inducciones por ser código binario, las señales
digitales sólo necesitan un canal en el que viajan los 2 canales de dcha. e izda.
CD analógico : L y R ! 2 CH
CD digital : 1 CH! digital
♦ Conectores domésticos:
9
◊ RCA
◊ TOSLINK: (ópticas)
(en profesionales para ADAT : 8 CH de audio).
CONEXIONES:
◊ ANALÓGICOS:
◊ Balanceada: conexión profesional. Tiene salida marcada como +4 dB con conectores
XLR y el JACK stereo. Protege la señal de ruidos electromagnéticos. Mayor tirada de
cable.
◊ Desbalanceada: conexión doméstica y en equipos como −10 dB. 2 canales y más
sensible q interferencias de radiofrecuencia
⋅ DIGITALES:
⋅ AES / EBU: señal digital profesional; lleva información derecha e izquierda,
e informa de reloj, de sincronismos, etc. Conector XLR.
⋅ SPDIF /SDIF: señal digital doméstica, sólo los canales izquierdo y derecho.
Conector RCA. (Digital Interface Formal)
3.3:. LA MESA DE MEZCLAS
SECCIÓN DE ENTRADA:
Entran las señales. Hay un pre−amplificador de la señal donde se ajusta el
nivel (la intensidad) se hacen con un control de ganancias TRIM // GAIN.
Después los controles de ecualización, donde modificamos el timbre de una
señal por medio de unos filtros de tonos agudos, medios y graves. Los envíos
de auxiliares para enviar una parte de la señal hacia una salida determinada.
Después la regleta o fadder, y ajustamos el nivel de intensidad respecto a la
mezcla. Un potenciómetro llamado Panorámico (PAN) envía la señal al canal
L o R del master (panpometrar la señal).
El balance se aplica sólo a estéreo que se diferencia del PAN porque en el
balance se suma la señal derecha al izquierdo )o viceversa).
ECUALIZACIÓN:
Para filtrar la señal se usan filtros agudos, medios y graves. Que actúan sobre
le ancho de banda de frecuencias de audición de banda.
Graves Medios Agudos
20Hz 600Hz 800Hz 2KHz 8HKz 20KHz
Cuando los filtros están prefijados por el fabricante se conoce como:
Ecualización tipo Shelving (la más común y con ecualizadores gráficos).
En entornos profesionales está el ecualizador PICO o CAMPANA, en el que
se pueden cambia r los parámetros de ecualización.
• Frecuencia de actuación
10
20Hz 35Hz 20KHz
• Factor Q: rango en el que quiero actuar. Actúa en las medidas
colindantes con menor intensidad. Mejor poner un factor Q más
estrecho.
30H 35Hz 40Hz
• Ganancia / GAIN: decirle la cantidad de nivel de actuación. + para
ensalzar, − para deducir.
Frecuencia Aguda / F. Media Aguda / F. Media Grave / F. Grave y cada uno
de ellos estos tres parámetros. Ecualizadores paramétricos.
TEMA 4:. MICRÓFONOS DE ESTUDIO Y DE DIRECTO
4.1:. Características de los micrófonos:
El primer elemento que interviene en la cadena de reproducción sonora es el
micrófonos y el último es el altavoz, también llamado TRANSDUCTOR.
• Micrófono: transductor que convierte magnitudes físicas (ondas de
presión) en una magnitud eléctrica.
• Altavoz: transductor que convierte una magnitud eléctrica en
magnitudes físicas (ondas de presión).
CLASIFICACIÓN:
Dinámicos / Bobina móvil 1.Cardioide/ Unidireccional
Construcción Condensador / Phantom (48V) 2. Hipercardioide
MIC Figuras Polares 3. Figura en 8/Bidireccional
Funcionamiento Presión 4. Omnidireccional
Gradiente Presión / Velocidad
⋅ Micrófonos según su construcción:
⋅ Dinámicos / Bobina móvil: es un micrófono robusto, de bajo coste, capaz de
captar todo el espectro de frecuencias audibles (20Hz a 20KHz). Utilidades:
para reportajes ENG, también en Radio.
Funcionamiento: membrana en un entrehierro que se mueve y que genera una
corriente eléctrica que va a la mesa.
⋅ Condensador: micrófonos profesionales se emplean en estudios. Necesitan
para que sean sensibles una alimentación extra (llamada alimentación
Phantom de 48V).
Funcionamiento: la membrana está suspendida, se le suministra una energía
extra para polarizarlo y que pueda vibrar. También hay unos de válvulas que
llevan su propio condensador de energía. Micrófono de carbono del teléfono.
11
⋅ Figuras polares
⋅ CARDIOIDE / Unidireccional: máxima captación por su parte frontal
(hacia donde estás apuntando).
⋅ HIPERCARDIOIDE: compuesto por dos figuras polares cardioides
de diferente sensibilidad. Poseen máxima captación por la
parte frontal y también por su parte posterior (inferior) por medio de unas
aberturas.
⋅ FIGURA EN 8 / Bidireccional: máxima captación por su parte
frontal y posterior.
⋅ OMNIDIRECCIONAL. Ej: teléfono móvil, mesa de mezclas (PFL).
⋅ Funcionamiento:
⋅ Presión: la membrana está sometida a una cierta presión y sólo es sensible
por una de sus caras. El dinámico no captaría apenas el sonido reflejado.
⋅ Gradiente Presión: la membrana es sensible por su parte frontal y posterior
x la parte frontal el sonido directo y por la posterior el sonido reflejado.
Dinámico: Cardioide y de presión.
Condensador: Cardioide, Hipercardioide, F8, Omni, Velocidad y presión.
Cardioide: presión
F8: velocidad
Hipercardioide: velocidad
Omni: velocidad.
TEMA 5: METODOLOGÍA DE UNA GRABACIÓN
5.1 PREPARACIÓN Y AJUSTES DEL EQUIPO.
5.2 EL PROCESADO DE LA SEÑAL.
5.3 EL MASTERING.
Procesado de dinámica
El margen dinámico de nuestro oído y el que se puede generar a partir de
instrumentos acústicos puede alcanzar los 130 dB SPL.
En cambio, los dispositivos de grabación no tienen tanto margen: los
magnetofones de cinta apenas superan los 60 dB, las tarjetas de sonido
domésticas apenas superan los 80 dB, tan sólo algunos de los equipos
digitales profesionales permiten una dinámica de 120 dB...
12
Por tanto, en algunas situaciones en la que necesitemos grabar instrumentos
acústicos (especialmente una orquesta) necesitaremos comprimir su dinámica
(o aprendernos la partitura para subir o bajar faders según haya momentos
ppp o fff).
Básicamente un compresor atenuará en una determinada proporción (ratio) la
intensidad de la señal cuando ésta supere determinado umbral (threshold).
Si a partir de determinado nivel no se permite que aumente la intensidad en
absoluto, estaremos utilizando un limitador en lugar de un compresor.
El limitador es de utilidad cuando resulta imprescindible que una señal de
audio no supere un determinado umbral (por ejemplo, en transmisión de
televisión, o en grabación digital −aunque en este caso el propio dispositivo
de grabación ya realiza la limitación, con los desagradables resultados que
todos conocemos−).
Las utilidades más habituales y obvias de los compresores se centran en
situaciones en las que es necesario minimizar los cambios de nivel debidos a
variaciones de la distancia entre el micro y la fuente sonora, o cuando es
necesario grabar sobre un soporte que no permite tanta dinámica como la
fuente original −y protegernos contra las saturaciones−, o cuando es
necesario suavizar los ataques de fuentes sonoras intensas, o cuando es
necesario conseguir una sensación de alta intensidad sonora sin llegar a
saturar y distorsionar la grabación (por ejemplo en emisoras comerciales de
FM, o en spots publicitarios).
Cuando utilizamos la compresión hay que pensar que el nivel de salida del
compresor puede ser menor que el de entrada, por tanto tendremos que
compensar la salida añadiendo una ligera amplificación.
Un tipo de compresión que cada vez se utiliza más es la compresión por
bandas, de manera que sólo se aplica a determinadas frecuencias (por
ejemplo a los graves, o a los 7KHz para reducir la sibilancia o siseo de una
voz). Aunque no nos extenderemos en ellos, los reductores de ruido de cinta
(Dolby B y C, Dolby SR y DBX) son sistemas de compresión/expansión
selectiva por bandas de frecuencia.
Las puertas de ruido "cierran" el paso de toda señal que no supere un
determinado umbral fijado por el usuario. Son muy útiles en situaciones de
"directo" en las que hay multitud de micrófonos que pueden captar lo mismo
que el principal, y tratamos de que la señal sólo entre por el principal (por
ejemplo, en un coloquio en el que casi seguro que sólo habla una persona al
mismo tiempo).
También nos ayudan a "recortar" todos aquellos ruiditos no deseados que se
han colado en una grabación (toses, respiraciones, rozamientos de ropas,
ruidos de ambiente), siempre que no se mezclen con la señal principal.
Los expansores de dinámica actúan de manera inversa a los compresores. A
partir de un determinado umbral expanden el margen dinámico en una
proporción fijada por el usuario.
13
Su utilidad puede revelarse especialmente en situaciones en las que la señal
original tiene una dinámica demasiado reducida
(por ejemplo, en la escucha de un disco de vinilo) y nos interesa tratar de
ampliarla un poco, o también puede ayudarnos a restaurar señales grabadas
con bajo nivel (aunque necesitaremos aplicar otros procesos adicionales, ya
que el expansor por sí solo no bastará).
Cuando necesitemos utilizar varios tipos de procesadores de dinámica hemos
de actuar en primer lugar contra los ruidos indeseables (con una puerta de
ruido, por ejemplo). Después podemos poner el compresor. Finalmente, a
diferencia del uso de otros procesos (reverberación, retardos).
La normalización consiste en transformar la amplitud de la señal tomando un
determinado valor como máximo y reajustando en la correspondiente
proporción toda la señal. Así, cuando normalizamos a 0, si el valor máximo
que tenemos en nuestro archivo es de −10 dB estaremos amplificando toda la
señal esa magnitud. El problema más habitual con la normalización es la
existencia de ruido de fondo, el cual, mientras está a una amplitud baja no se
percibe tan molesto como cuando es amplificado en exceso (la explicación es
psicoacústica).
A veces será preferible normalizar a menos de 0 dB, o comprimir un poco y
aprovechar la ganancia de salida del compresor para aumentar el nivel
definitivo. Aumentar la ganancia y normalizar son dos maneras de referirse a
una misma operación, aunque en muchas ocasiones empleamos la expresión
"normalizar" sólo cuando normalizamos a 0 dB de la escala digital.
Transformaciones tímbricas basadas en retardos: delay, flanger,
chorus...
Eco/Retardo
Cuando las reflexiones de un sonido llegan con retardos superiores a 50
milisegundos respecto de la fuente original aparece lo que denominamos eco.
En otros tiempos el efecto de eco se conseguía gracias a los 2 cabezales
(grabación y reproducción) de un magnetófono. Inyectando un sonido,
grabándolo y reproduciéndolo inmediatamente obtendremos un retardo cuyo
tiempo estará determinado por la distancia entre los cabezales y por la
velocidad de la cinta (puede oscilar entre 66 i 266 milisegundos).
Actualmente los ecos se consiguen mediante retardos digitales (delays) que
nos permiten tiempos desde una milésima de segundo hasta 3 ó 4 segundos.
Además del tiempo de retardo, es posible manipular parámetros como:
Múltiples líneas de retardo (multi−tap delay): es posible retardar de maneras
diferentes pero simultáneas una misma señal (por ejemplo, una línea atenúa
progresivamente la señal retardada, otra hace un número fijo de retardos, con
una dinámica creciente, y otra hace lo mismo pero con una dinámica y una
distribución de tiempos de retardo aleatorias.
14
Panoramización: permite hacer sonar las repeticiones alternativamente en uno
u otro lado del espacio acústico, o ir desplazándolas progresimente en una
determinada dirección.
Los retardos no sólo se utilizan para simular eco:
Con un retardo muy corto (< 30 milisegundos) y una cierta realimentación
alteraremos claramente la tímbrica. El sonido se hará metálico y adquirirá
resonancias muy definidas en determinadas frecuencias. Incluso podemos
simular acordes a partir de esta opción.
Con un retardo entre 20 y 80 milésimas afectamos principalmente a la
presencia del instrumento, ya que nos aprovechamos del efecto Haas para
"sumar" perceptualmente dos sonidos iguales (y físicamente separados en el
tiempo), de manera que podemos generar la sensación de sonido más
"grueso", o de multiplicación de instrumentistas.
Con retardos mayores de 80 o 100 milisegundos el efecto principal que
obtenemos es de tipo rítmico, por tanto −al menos en el caso de músicas con
ritmos marcados− hay que ajustar el tiempo de retardo al tempo de la música,
para lo cual existen tablas muy útiles o puede valernos la fórmula:
Tiempo de Retardo = 60000 / (BPM x R), donde R es 1 si el retardo va a
negras, 2 si es a corcheas, 4 si es a semicorcheas, etc. Por ejemplo, a 100
BPM y 4/4, si queremos un retardo a semicorcheas (R=4) necesitamos un
tiempo de 150 milisegundos.
Flanger
Se trata de un filtrado periódico (en forma de peine) de una serie de
frecuencias determinada por el tiempo de retardo (por ejemplo, con uno de
0.5 milisegundos realzaremos 2KHz y sus armónicos), aunque explicarlo con
palabras es poco efectivo. El origen del flanger es mecánico (hay quien se lo
atribuye a George Martin y a John Lennon): si al grabar una cinta en un
magnetofón presionamos con el dedo de vez en cuando y con fuerza variable
la bobina que entrega cinta originamos micro−frenazos que alteran la señal
original. Si grabamos simultáneamente en 2 magnetofones, y en uno
aplicamos el "flanging" manual mientras que en el otro no, generaremos el
barrido característico del efecto de flanger.
El flanger proporciona efectos más llamativos cuanto más rico
(armónicamente hablando) sea el sonido. Cuando le añadimos feedback lo
equiparamos a un chorus.
Chorus
Se utiliza para "engrosar" la señal, o para simular la existencia de varios
instrumentos sonando al unísono. En esta situación, un intérprete puede
atacar con cierto retraso y con cierta desafinación respecto a otro intérprete;
eso es lo que trata de simular, de manera compacta, este efecto.
15
Distorsión
Transforma en cuadradas las ondas de la señal de entrada. Eso origina que el
resultado tienda a ser desagradable y rasposo (ya que la cuadratura de la onda
implica que aparezcan armónicos impares).
Excitador
También denominado enhancer. Genera armónicos pares −a menudo
medios/agudos− de la señal de entrada, de manera que contribuye a hacer
más presente esa señal en una mezcla sin necesidad de subir su nivel.
También puede utilizarse para generar subarmónicos con el fin de realzar
instrumentos de tesitura grave, o de proporcionarles más cuerpo. Finalmente
puede utilizarse satisfactoriamente en restauración sonora de vinilos o de
grabaciones defectuosas.
Transpositor
Inicialmente las transposiciones mecánicas se basaban en alterar la velocidad
de reproducción de una cinta respecto de su velocidad en el momento de la
grabación
(reproduciendo al doble obtenemos una transposición de octava hacia arriba),
pero también se alteraba la tímbrica ya que esta transformación no preserva
las estructuras de formantes propias de muchos instrumentos (por ejemplo la
voz) y de ahí los conocidos efectos de "pitufo" o de "ogro", en los que la voz
así procesada poco tiene que ver con la original.
Muchos transpositores digitales aún operan en base a esa idea de alterar la
velocidad de reproducción, aunque en los últimos años van apareciendo más
equipos y programas capaces de transponer, incluso en tiempo real, sin
alterar en exceso las características del instrumento.
Las utilidades de un "pitch−shifter" comprendend: desafinar ligeramente un
instrumento (por ejemplo, convertir un piano "soso" en un "honky−tonk"),
engrosar su sonido −con la ayuda adicional de un pequeño retardo−), crear
imágenes estéreo a partir de una fuente mono, corregir algunas alturas
equivocadas en una interpretación por otra parte valiosa, crear armonías
paralelas, o deformar sonidos "naturales" u "originales" para crear nuevos
timbres (películas como La caza del Octubre Rojo, Full Metal Jacket, o
Terminator 2 contienen interesantes ejemplos de uso del transpositor).
Transformaciones tímbricas basadas en la estructura de los sonidos.
Filtrado.
El dispositivo más utilizado para transformar el timbre de un sonido es el
ecualizador. Un ecualizador permite modificar la señal de entrada de manera
tal que determinados componentes de su estructura o espectro salen de él
atenuados o amplificados. Un ecualizador permite, como máximo, manipular
3 parámetros:
16
Frecuencia de actuación o central: para determinar sobre qué zona del
espectro queremos actuar;
Anchura de banda o factor Q: para determinar la región en torno a la
frecuencia central (cuanto más estrecha más precisa será la modificación
−pero seguramente será menos evidente−);
Nivel de atenuación/amplificación: para determinar la magnitud en dB que
necesitamos realzar o atenuar la banda sobre la que actuamos.
Un ecualizador puede ser:
Paramétrico: si permite manipular los tres parámetros anteriores;
Semiparamétrico: si la Q está prefijada y sólo podemos alterar los otros dos
parámetros (habitual en muchas mesas de mezclas);
Gráfico: si consta de un número fijo de frecuencias (8, 15, 31) de actuación,
con una Q fija, de manera que tan sólo permite modificar el nivel de
atenuación/ amplificación (con 31 bandas y una Q de tercio de octava puede
ser el típico ecualizador utilizado para ajustar tonalmente una sala).
Las transformaciones que podemos conseguir con un ecualizador no son
excesivamente drásticas, aunque nos pueden ayudar a atenuar determinadas
frecuencias molestas o exageradamente presentes, a realzar determinadas
características tímbricas de una fuente sonora, o, en última instancia, a
compensar determinadas deficiencias microfónicas o perceptuales (aunque no
debemos poner muchas esperanzas en que nos arregle una deficiente toma
microfónica).
La EQ no se debe utilizar por rutina o sistema sino en función de los
objetivos sonoros o musicales (claridad, equilibrio tonal, énfasis en
determinados componentes, etc.).
En una mezcla es importante tratar de plantear siempre en primer lugar una
ecualización destructiva (en la que se atenúan determinadas zonas para
conseguir el deseado equilibrio tonal)
antes que una constructiva (en la que una amplificación excesiva puede
originar un aumento del ruido); en lugar de amplificar lo que queremos
resaltar podemos obtener el mismo efecto atenuando todo aquello que no nos
interesa resaltar.
En cambio, en grabación, si es necesario ecualizar deberemos preferir antes
una EQ constructiva (que siempre permita volver a atenuar en mezcla) antes
que una destructiva (si hemos atenuado algo, difícilmente vamos a conseguir
que "reaparezca");
ahora bien, hay que conocer en qué zonas se mueve la energía de los
instrumentos para no cometer el error de enfatizar zonas vacías que lo único
que hará será aumentarnos el ruido de la grabación.
17
Junto a los ecualizadores los filtros son otra herramienta importante para
alterar la estructura tímbrica de un sonido (de hecho los ecualizadores no son
más que filtros especiales).
Un filtro nos permite eliminar una determinada banda o margen de
frecuencias en torno, por encima, o por debajo, de una cierta frecuencia de
trabajo o frecuencia de corte.
Los filtros más habituales son:
Pasa−banda: dejan intacta la señal que se halle en torno a una determinada
frecuencia central;
Pasa−bajos: dejan intacta la señal que exista por debajo de una determinada
frecuencia de corte;
Pasa−altos: dejan intacta la señal que exista por encima de una determinada
frecuencia de corte (por ejemplo, el filtro de 80/100 Hz que habitualmente
llevan las mesas de mezcla);
Filtros de rechazo de banda o notch: eliminan la señal que se halle en torno a
una determinada frecuencia central;
Filtros en escalón o shelving: atenúan o amplifican la señal a partir de una
determinada frecuencia de corte, pero sin ser tan abruptos como los
pasa−altos y pasa−bajos (los controles de graves y agudos de los
amplificadores domésticos y algunas secciones de los ecualizadores de una
mesa de mezclas suelen ser de tipo escalón)
TEMA 6: EDICIÓN DE SONIDO
VISUALIZACION DEL SONIDO.
EL DOMINIO TEMPORAL Y EL DOMINIO ESPECTRAL
En la actualidad contamos con la ayuda de representaciones visuales tales
como los gráficos de formas de onda y los espectrogramas, y la edición no se
realiza físicamente sobre el soporte del audio, sino de manera "virtual" sobre
representaciones del sonido..
Los gráficos de forma de onda nos presentan las variaciones de amplitud de
la onda sonora a lo largo del tiempo. En el eje horizontal se representa el
tiempo, y en el vertical la amplitud, intensidad o incluso la presión sonora. A
menudo en el eje horizontal tenemos una escala en horas, minutos, segundos
y "frames", o bien en compases y tiempos de compás, mientras que en el eje
vertical tenemos decibelios, valores de amplitud de muestra o porcentaje de
amplitud.
Los espectrogramas nos representan la estructura intrínseca del sonido. En el
eje horizontal se ubica la frecuencia, y en el vertical la amplitud.
Si repetimos esas representaciones a lo largo de un periodo de tiempo
18
obtenemos un espectrograma en cascada, en el que podemos observar las
variaciones temporales de la estructura del sonido.
Para analizar el espectro nos valemos del análisis de Fourier a corto plazo.
Esta técnica puede requerir que ajustemos algunos parámetros para obtener
unas representaciones fiables y de alta precisión.
Por ejemplo, un tamaño grande para la ventana de análisis nos permite
detectar correctamente bajas frecuencias, pero nos reduce la resolución
temporal.
EDICION DESTRUCTIVA Y NO DESTRUCTIVA
La mayoría de programas actuales de edición permiten trabajar de manera
no−destructiva. Ello significa que las transformaciones que realizamos con
un determinado archivo no operan directamente sobre él sino sobre una copia
real (un archivo temporal) o virtual (una serie de punteros y variables que
especifican cómo se transforma el archivo original en el momento de
reproducirlo transformado).
La edición no−destructiva permite siempre "volver atrás" si tomamos una
decisión equivocada.
Una opción muy interesante en los sistemas de edición no destructiva es la
del uso de regiones.
Una región es una representación "virtual" −software− de un fragmento del
archivo. Descomponiendo un archivo en regiones es posible construir un
orden nuevo de sus contenidos sin necesidad de alterarlo físicamente, ni de
copiar y pegar los fragmentos para construir nuevas ordenaciones.
Para ello elaboramos una lista de reproducción (o playlist) que especifica qué
regiones hacer sonar en cada momento.
En algunas aplicaciones de edición de sonido podemos hallar diferentes
modos de edición. La elección de uno o de otro depende de los objetivos de
la sesión o del proceso que tratemos de llevar a cabo.
Cuando utilizamos las funciones de cortar y pegar es posible realizar un
"pegado−mezcla" (pegando sobre un fragmento del archivo que previamente
contenía sonido), una inserción (el audio que pegamos hace desplazar hacia
atrás el que existía en el punto de inserción), o una substitución total (cuando
en lugar de un punto de inserción especificamos una región). También es
posible el pegado a una dirección específica de código de tiempo.
Otra opción muy interesante es el recorte (o crop), mediante el que podemos
eliminar todo aquello que rodea al fragmento que verdaderamente nos
interesa.
Finalmente, la opción de simulación de bobina permite ajustar un punto de
edición escuchando a velocidad lenta el sonido existente alrededor de dicho
19
punto. Cada opción depende, en última instancia, del modo de edición en el
que estemos trabajando.
CORTES Y ENCADENADOS. FADE IN Y FADE OUT.CROSSFADE
Denominamos corte a una edición de material sonoro en la que el audio
aparece o desaparece bruscamente.
Denominamos encadenado a una edición de material sonoro en la que se
yuxtaponen sin solución de continuidad y sin solapamiento dos elementos
más o menos dispares.
Cuando hacemos un encadenado la mayoría de aplicaciones profesionales
pueden ajustar hasta cierto punto el enlace para que no se produzca un
"click" audible debido a diferencias de fase y amplitud entre los dos
fragmentos.
Un fundido es una transición gradual desde o hacia el silencio absoluto.
En el primer caso se denomina fundido de entrada" (o "fade in"), mientras
que en el segundo caso hablamos de fundido de salida (o "fade out").
Cuando yuxtaponemos 2 materiales sonoros diferentes utilizando una
combinación de fundido de entrada y de salida, es decir, cuando los
yuxtaponemos sin "corte" sino con una transición paulatina, denominamos al
proceso crossfade (o "fundido cruzado").
En un fundido cruzado coinciden en el mismo momento de tiempo dos
fragmentos sonoros diferentes, probablemente procedentes de archivos
diferentes, que se combinan entre sí en una proporción que varía a lo largo
del tiempo. Así hablamos de fundidos cruzados lineales, exponenciales,
abruptos.
Siempre que realizamos un fundido cruzado hay que vigilar las alteraciones
de nivel que pueden producirse durante él (un fundido cruzado lineal origina
una pérdida de entre 3dB y 6 dB).
ELIMINACION DE RUIDOS INDESEABLES
Los ruidos continuos y estables (por ejemplo un zumbido de baja frecuencia,
o el "hiss" o soplido de cinta) pueden reducirse notablemente con ayuda de
sofisticados procesos de filtraje disponibles en algunos editores
profesionales.
La estrategia suele implicar la selección de un breve fragmento −200
milésimas suele ser suficiente− de ruido solo, a partir del que el programa
obtiene el perfil espectral de dicho ruido y propone un filtro reductor.
A continuación, operando por ensayo y error unos cuantos parámetros es
posible conseguir una mejora en la calidad sonora del archivo.
Los ruidos transitorios, abruptos, y poco predecibles (toses, respiraciones,
20
rozamientos de ropa, "clicks", "pops", etc.), es posible eliminarlos siempre
que no coincidan con material "interesante".
Estos ruidos que aparecen en momentos de silencio pueden eliminarse de
manera semi−automática, con funciones tipo puerta de ruido, en las que
establecemos un umbral de intensidad por debajo del cual lo que suena se
atenúa o elimina.
Además, es posible establecer umbrales temporales de manera que la puerta
de ruido sólo actúe si el ruido no es mayor o menor que un determinado
valor.
En el caso de crujidos y "pops" de disco de vinilo existen aplicaciones con
funciones especialmente diseñadas para resolver aceptablemente el problema.
En el caso de "glitches" o "clicks", también podemos utilizar funciones de
"de−clicking" que permiten substituir la muestras defectuosas, por ejemplo,
un valor aceptable calculado a partir de las muestras adyacentes.
La eliminación de ruidos indeseables no siempre debe realizarse "por
sistema". En ocasiones el proceso de eliminación puede llegar a desvirtuar
características sonoras importantes, en otras ocasiones determinadas
eliminaciones restarán naturalidad a la banda sonora, o provocarán una cierta
sensación de extrañeza. Es necesario valorar en cada caso la necesidad y el
alcance y límites de dicho proceso.
MATERIAL SONORO: SOPORTE Y FORMATOS
AUDIO DE CD´s
Existe una gran variedad de formatos de CD, no todos ellos necesariamente
ligados al sonido.
El CD−Audio almacena pistas de audio muestreado a 44.1 KHz y codificado
en formato PCM a 16 bits, permitiendo más de 70 minutos estéreo por disco.
El CD−ROM permite almacenar unos 650 Mb de datos informáticos de toda
índole y por tanto es posible utilizarlo como soporte de almacenamiento de
archivos de audio digital. Un CD−ROM no puede ser interpretado
correctamente por un reproductor de CDs musicales en cambio, un
CD−Audio sí que puede ser leído correctamente por un lector de CD−ROMs.
Para extraer audio de CDs musicales e incorporarlos en un proyecto de
postproducción digital de sonido se pueden seguir 4 procedimientos,
asumiendo que el resultado lo pretendemos almacenar en el disco rígido de la
computadora:
a) Tomar la salida analógica del reproductor (line out) y conectarla a la
entrada analógica de la tarjeta de sonido que utilicemos. Activar la función de
grabación de nuestro programa de grabación/edición de sonido
b) Utilizar el lector de CD−ROMs incorporado en la computadora. La
21
conexión entre su salida y la entrada de la tarjeta de sonido se realiza a través
de software.
c) Transferir directamente los datos del CD a archivo de sonido, con ayuda de
programas específicos (CD−grabbers).
d) Transferir digitalmente los datos del CD desde un reproductor con salida
digital hacia una tarjeta con entrada digital.
La opción "c" será siempre la preferida ya que ahorra la redigitalización que
tiene que llevar a cabo la tarjeta en los dos primeros casos, y permite
mantener intacta la calidad original de la grabación en CD, y además nos
ahorra tener que editar la grabación puesto que de hecho no hacemos una
grabación sino una mera "transferencia". El problema es que los lectores de
CD−ROMs no están suficientemente estandarizados y un programa de
captura que funcione con un modelo o una marca puede no hacerlo con otro
diferente. La opción d) también sería buena, pero nos obligaría a editar el
fragmento grabado (para eliminar silencios antes y después del fragmento
que nos interesaba).
AUDIO DE DAT´s. (Otros soportes de audio en cinta)
La extracción correcta de audio de DATs requiere que la tarjeta de sonido
disponga de entrada digital, ya sea SPDIF (conector RCA) o AES−EBU
(conector XLR o cannon). Si no disponemos de ella siempre queda el recurso
de redigitalizar la señal conectando la salida de línea del DAT con la entrada
de línea de la tarjeta, pero no es la opción más recomendable ya que
perderemos calidad. La transferencia digital en este caso no nos permite
conservar las marcas de posición (índices) que puedan existir en la cinta.
La extracción de audio en otros soportes de cinta siempre la tendremos que
realizar a través de los conectores de línea, de manera que la tarjeta de sonido
será la que digitalice la señal. Cuando el audio proviene de cintas de cassette
no tiene mucho sentido preocuparse por la calidad de la tarjeta, pues la señal
que entraremos tiene suficientes defectos. Digitalizar audio de una cinta nos
permitirá, para empezar, tratar de mejorar la calidad del sonido, eliminando el
típico "hiss" o ruido de soplido.
ARCHIVOS DE SONIDO. FORMATOS CAMBIOS DE FORMATOS,
DOWNSAMPLIMG, REDUCCION DE BITS.
Una vez digitalizado un sonido (el proceso requiere un filtrado pasa−bajos,
un muestreo temporal, una cuantización de la amplitud de la onda y una
codificación según un procedimiento preestablecido denominado
"Modulación en código de pulsos" o PCM) dispondremos de un archivo que
podremos reproducir en aquellas plataformas capaces de reconvertir su
información en impulsos eléctricos susceptibles de mover el cono de un
parlante.
El archivo también podremos manipularlo de la misma manera que hacemos
con otros tipos de archivos, y con la ayuda de programas especializados,
22
podremos transformar su contenido sin que la calidad se degrade lo más
mínimo.
En un archivo de sonido distinguimos entre la cabecera (o header) y los
datos. La cabecera es la sección inicial del archivo y en ella suele indicarse si
se trata de un sonido mono o estéreo, si contiene puntos de buclaje (o loops),
la tasa de muestreo, la duración, y otras informaciones respecto a los datos
que van a continuación. Tales datos representan, muestra a muestra, el valor
de la amplitud de la onda sonora. Cuando utilizamos 16 bits para codificar
esa amplitud necesitamos dos octetos (o bytes) por muestra; el orden de
ambos octetos es diferente para un archivo de una computadora con
procesador Intel (big−endian) que para uno con procesador Motorola
(little−endian). Esta es una cuestión muy importante cuando movamos
archivos entre plataformas.
Los formatos más comunes son:
AIFF y SoundDesigner II: Propio de Macintosh
WAV:Propio de
Habituales de Macintosh. Las principales diferencias entre uno y otro son que
en el AIFF los datos de cada canal están separados, mientras que en el SD−II
están intercalados (interleaved) −o sea, una muestra de un canal seguida de
una muestra del otro...− y que el formato SD−II utiliza unas estructuras de
datos propias de Macintosh denominadas resource forks que suelen
complicar las transferencias a PC.
WAV:Propio de PCs.
Un cambio de formato por lo general no debe afectar a la calidad del sonido
(siempre que se mantenga la resolución y la tasa de muestreo), sólo afectará a
la cantidad y tipo de información que se almacene en la cabecera. De ahí que
con un cambio de formato el tamaño del archivo no se altere en exceso.
La reducción de la tasa de muestreo y/o de la resolución se plantea como algo
inevitable en muchas producciones multimedia ya que permiten comprimir el
tamaño de los archivos de sonido hasta hacerlos 4 veces más pequeños,
aunque el precio a pagar es siempre la degradación de la calidad.
Cuando reducimos la tasa de muestreo es importante aplicar un filtro
anti−aliasing para que no aparezcan −a modo de fantasmas− componentes
espectrales de baja frecuencia que no tenía el sonido original.
El filtrado anti−aliasing elimina todos los componentes situados más allà de
la denominada frecuencia de Nyquist (la mitad de la tasa de muestreo).
Así pues, una reducción de tasa de muestreo tendrá impacto principalmente
en el timbre del sonido pues eliminará armónicos y componentes espectrales
de alta frecuencia..
Cuando reducimos la resolución (de 16 a 8 bits, por ejemplo) el impacto se
23
produce principalmente sobre el rango dinámico de la señal (cada bit que
perdemos lo reduce unos 6 dB).
Recientemente han empezado a implantarse con éxito diversos esquemas de
compresión de datos que utilizan sofisticadísimos algoritmos "adaptativos"
(analizan espectralmente la señal, elaboran predicciones de lo que puede
venir a continuación, utilizan conocimientos de psicoacústica para eliminar
información redundante o enmascarada...). Tales algoritmos permiten
reducciones de datos considerables (hasta en proporción 12:1), y sin degradar
en exceso la calidad.
El precio a pagar es que es necesario un proceso de descodificación que
puede originar un cierto retardo en el inicio de la reproducción, o un gasto
excesivo de los recursos de cálculo del ordenador. Entre estos algoritmos vale
la pena conocer el denominado IMA ADPPCM, que reduce el audio en una
proporción de 4 a 1 sin que suene tan mal como cuando reducimos a 22 KHz
y 8 bits, y el MPEG−3, que puede comprimir en proporción 12 a 1 con una
calidad notable (casi de CD escuchado a través de un equipo multimedia).
TEMA 7:. EL SONIDO EN CINE
7.1:. EL EQUIPO DIRECTO.
Recorder− DAT (Digital Audio Tape)
• Mini−Disk
• Nagra (analógico)
EQUIPO
TÉCNICO Micrófonos
Mesa (Mixer)
Complementos TV/Monitor
Radio micros
Técnico: persona responsable
EQUIPO HUMANO Auxiliar: ayuda al microfonista y hace las veces de 2º
microfonista.
Microfonista
COMPLEMENTOS:
Estos equipos graban L y R, y si en alguna toma se necesitan más canales
porque se necesitan más micros (CH1− P1, 2− P2, 3− Ambiente, 4−Ext...) la
mesa toma el sonido de los 4 micros y la salida es sólo L y R con todo el
sonido junto. Cada canal puede ecualizarse.
− TV/ Monitor: el monitor tiene una marca roja que delimita lo que graba
24
el fotograma.
− Radio micros: micros inhalámbrico que sustituye al micrófono en tomas
abiertas.
RECORDER
CH 1 / L
Graba en 2 pistas
CH 2 / R *Pueden grabar códigos de tiempo para luego sincronizarlo
Graban en sistema digital permitiendo grabar señales de 44,1KHz y 48KHz.
En profesional se graba en 48KH (da más calidad que el 44,1KHz que es lo
mínimo) ! 16BITS.
MICRÓFONOS
Suelen ser micrófonos de condensador que necesitan esos 48 vatios
adicionales que lo da el DAT, la mesa o el propio micrófono {dentro en la
cápsula hay una batería (pila)}.
Clasificación:
⋅ Micro de cañón corto: estos micros suelen ser cardioides o hipercardiodes
(recogen donde está apuntando y ambiente. Mayor ángulo de captación, y
con un único micro puedo grabar a 2 personas. A su vez tienen menor
proyección (cerca de los personajes).Se utiliza en interiores.
⋅ Micro de cañón medio: se utiliza para interiores y exteriores con poco ruido.
Poseen un ángulo de captación grande pero menor que el de cañón corto
aunque con mayor proyección.
⋅ Micro de cañón largo: únicamente para exteriores, con menor ángulo de
captación y mayor proyección. Necesitan una suspensión especial (Pistola) en
anclajes con gomas que amortiguan las vibraciones al mover el micrófono.
Encima de la suspensión se coloca el zeppelín, que protege al micrófono de
golpes.
Para mayor protección está el peluche que una funda de pelo que absorbe la
lluvia, viento, etc, restando los agudos.
La pértiga prolongación del telescópica del brazo del microfonista (enrollar
cable para que no pegue contra la barra y se registre sonido).
· Parte de Sonido: garantiza el control de sonido identificando las que han
sido tomas de sonido buenas; con las notas para incidencias y la disposición
de los canales del DAT −L y R en el caso de tener dos micros − pistas.
· Wild track: cuando una toma en imagen está bien y no pueden usar otra
toma, se realiza un doblaje en el mismo sitio y con la acústica de la toma.
25
TEMA 10:. LA PREMEZCLA Y LA MEZCLA
1. PREMEZCLA
2pistas − diálogos ! 10p diálogos ! 80 p
2pistas − efectos ! 16p efectos ! 120p ± 400p peli americana
2pistas − amientes! 26p ambientes! 80p
2pistas − músicas ! 16p músicas ! 128p
±70p
peli española
Los elementos comunes es hacer una premezcla de diálogos, efectos,
ambientes y músicas.
EJ: el estudio A se dedica a la mezcla de diálogos, cada apartado un estudio
diferente. A nivel nacional es un único estudio.
Es una mezcla en base al sistema 5.1 de todos los elementos que intervienen.
Tengo para la mezcla final 24 pistas, se mezclan todas y se tiene una mezcla
final 5.1 (MIX FINAL) ! mezcla discreta.
2. TIPOS DE MEZCLA
Mix Final− 5.1 − contienen todos los elementos
MIX M + E / Soundtrack / Banda internacional: intervienen las músicas
y efectos (ambientes y efectos especiales): mezcla para ser doblada a otro
idioma, sin diálogos.
LT R T : mezcla codificada de mi mezcla final. De 6CH codifica a 2CH (LT
R T) poder escuchar en un sistema de 2CH (en DVD ! AC−3)Que para ver a
través de un TV stereo y no oír sólo 2Ch (L y R) se agrupan en LT R T − Si
se enchufa un amplificador Home Cinema el LT R T vuelve a 6CH.
3. FORMATOS DE CINE
Dolby Digital
DTS sist. De Sony
SDDS distribución de las pistas en los formatos
MIX FINAL:
Del estudio de Post−producción se lleva un disco duro y se enchufa a un
Pro−tools en la sala de mezclas. Se hace la mezcla y se obtienen esos 6CH !
5.1 y los almacena en formatos con unas cintas DTRS. Características de
26
estas cintas: las mismas que la cinta DAT,
· graba 8 pistas en digital
· 44.1/48HKz = 16BITS
· Time code (código de tiempos)
8pistas digitales
POST ! Hd (80) ! ! 5.1 ! DTRS 44.1 / 48HKz = 16BITS
TC
En la cinta sobran 2CH ! 7 y 8: la mezcla LT R T.
1−L 5− SR
2−C 6− SW
3−R 7− LT
4− SL 8− R T
MIX M + E:
⋅ L 5− SR
⋅ C 6− SW
⋅ R 7− opcionales
⋅ SL 8− diálogos de referencia
· opcionales: para risas, canciones de los diálogos originales.
· Diálogos de referencia: para ver al actor y el de doblaje pueda imitarlo.
Para grabar LT R T se usan DAT (2CH).
TEMA 11:. SISTEMA DE CODIFICACIÓN Y REPRODUCCIÓN
1. LA CODIFICACIÓN DOLBY−DTS−SDDS
En cine el sonido va dentro del fotograma (EL Dolby Digital). Para de la
mesa de cine al óptico se ha de codificar la mezcla (sonido). Hay varios
sistemas de codificación:
ANALÓGICO
• Dolby SR: este sistema tiene 4CH de audio y su disposición para
mezclar sería: 3CH en pantalla y mantiene un surround en mono. L
CR
• Dolby ST (stereo): con 2CH (L y R)
• Mono Aural: 1CH (canal central).
27
Estos dos últimos no se usan para proyectos de largometraje (si para cortos)
DIGITALES
• Dolby SRD: Dolby digital con una estructura 5.1 (sist. Envolvente).
Dolby tiene la peculiaridad que a su canal de subgraves en su sistema
lo denomina LFE.
• Dolby SRD EX: utiliza la estructura 7.1 (la
diferencia con el SRD es que el EX tiene 2 surrounds por cada lado).
MEDIO GAS ! aire
TRANSMISOR LÍQUIDO ! agua
SÓLIDO ! acero
Es lineal, más difícil de propagar. Cuando inciden en obstáculos rebotan
I
t
O
O
O
ONDA FUNDAMENTAL
Armónico Fundamental
CEREBRO
CORTI
x 15
EQ
DA
(DAC)
01001001...
AD (ADC)
SW
S.C S.R
28
5.1
PC
Mesa
CD
0dB
− 70dB
Vu
XX
SD
E MICRO
SMono
SL1 LFE SR1
SL2 SR2
29
Descargar