Efectos Digitales Básicos

Anuncio
Efectos Digitales Básicos
Emilia Gómez Gutiérrez
Síntesi i Processament del So I
Departament de Sonologia
Escola Superior de Musica de Catalunya
Curso 2009-20010
[email protected]
30 de noviembre de 2009
Índice
1. Introducción
3
2. Procesado de la Dinámica
2.1. Modificadores de envolvente: Envelop shapers
2.2. Ecualizadores . . . . . . . . . . . . . . . . . .
2.3. Puertas de ruido: Noise Gates . . . . . . . . .
2.4. Compresores, expansores y limitadores . . . .
2.4.1. Compresores . . . . . . . . . . . . . .
2.4.2. Expansores . . . . . . . . . . . . . . .
2.4.3. Limitadores . . . . . . . . . . . . . . .
2.4.4. Companders . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3. Convolución
3
4
4
5
5
5
7
7
8
8
4. Retardo
4.1. Los retardos fijos: filtrado LP, comb y echo . . . . . . . . . . . . .
4.1.1. Retardos fijos de duración inferior a 10 ms: efecto de filtro
LP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1.2. Retardos fijos de duración entre 10 y 40 ms: efecto de filtro
en peine . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1.3. Retardos de duración superior a 50 ms: efecto de echo . .
4.2. Los retardos variables: flanging, phasing y chorus . . . . . . . . .
4.2.1. Flange . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2.2. Phasing . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2.3. Chorus . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2.4. Transposición . . . . . . . . . . . . . . . . . . . . . . . . .
9
11
11
11
12
12
13
15
15
16
5. Modificación del contenido frecuencial
16
5.1. Transposición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
5.2. Desplazamiento en frecuencia . . . . . . . . . . . . . . . . . . . . 16
5.3. Morphing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1
6. Reverberación
17
6.1. Fenómeno acústico . . . . . . . . . . . . . . . . . . . . . . . . . . 17
6.2. La reverberación artificial . . . . . . . . . . . . . . . . . . . . . . 18
7. Espacialización
7.1. Utilización musical de la espacialización
7.2. Los índices perceptuales . . . . . . . . .
7.3. La panoramización . . . . . . . . . . . .
7.4. HRTF : Head-Related Transfer Function
8. Referencias
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
20
20
21
22
23
23
2
1.
Introducción
El objetivo de este tema es el de repasar los conceptos básicos que hay detrás
de los algoritmos de procesado de audio más utilizados. Dichos efectos podemos
clasificarlo según su función: modificación del rango dinámico, filtrado (que ya
vimos anteriormente), convolución, efectos de retardo temporal, modificación de
la altura y de la escala temporal.
Existen algoritmos de transformación de audio que trabajan en el dominio
temporal, es decir, trabajan directamente sobre la modificación de las muestras
de audio para generar la transformación. Un ejemplo de estes tipo de algoritmos serían los retardos. Otros métodos requieren un análisis previo de la señal,
como los que trabajan en el dominio frecuencial. En este tipo de métodos, se
realiza primero un análisis espectral de la señal (para obtener su representación
frecuencial). A continuación se implementa una transformación en el dominio
frecuencial. Por último se requiere una etapa de síntesis que convierte la representación frecuencial transformada de nuevo al dominio temporal para generar
la señal de audio transformada. Este proceso se ilustra en la figura 1.
Figura 1: Transformaciones en dominio frecuencial
Por último, existen muchas transformaciones que se pueden realizar al sonido aplicando técnicas de análisis y modelado del sonido (modelado espectral o
físico), las cuales incluyen algoritmos de estimación de parámetros tales como el
pitch (o frecuencia fundamental), decomposición en parte harmónica/ruido, reconocimiento de timbre o reconocimiento de ritmo. Este tipo de sistemas tienen
un comportamiento que se podría resumir en la figura 2.
Todos estos efectos pueden utilizarse dentro de un entorno de postproducción
o como herramientas de creación musical.
2.
Procesado de la Dinámica
Las técnicas de modificación de la dinámica transforman la amplitud o
el volúmen de la señal de audio. Este tipo de técnicas son la base de diversos dispositivos: modificadores de envolvente (envelop shapers), puertas de ruido (noise gates), compresores (compressors), limitadores (limiters), expansores
(expanders), unidades de reducción de ruido (noiser reduction units), y compresores/expansores (companders). Las aplicaciones que tiene el procesado de
3
Figura 2: Transformaciones basada en la extracción de parámetros
la dinámica van desde algunas aplicaciones prácticas, como por ejemplo la eliminación de ruido, hasta aplicaciones más creativas como la modificación de la
envolvente de un sonido instrumental o vocal.
2.1.
Modificadores de envolvente: Envelop shapers
La mayoría de sistemas de edición de audio permiten modificar la amplitud
de una señal de forma global o mediante una envolvente. Se puede implementar
mediante una ganancia (en dB) o un rediseño de la envolvente del sonido. Esta
transformación se puede aplicar a un único objeto sonoro o a toda la mezcla.
2.2.
Ecualizadores
Los ecualizadores constan de varios filtros que permiten amplificar o atenuar
distintas bandas de frecuencia. Existen dos tipos de ecualizadores: paramétricos
y gráficos. Los ecualizadores paramétricos suelen constar de tres o cuatro
filtros que corresponden a frecuencias graves, medias y agudas. Cada uno tiene
3 controles: un potenciómetros para controlar la frecuencia central (entre 125
Hz y 2 Khz por ejemplo), otro para la ganancia (normalmente entre los -12 dB
y +12 dB) y otro para controlar el ancho de banda, que suele variar ente 14 y
4 octavas. Los ecualizadores gráficos constan de varios filtros del tipo anterior
pero con frecuencias fijas. Cada uno tiene un fader con el que amplificamos o
atenuamos la banda correspondiente.
Un efecto que hemos visto que tiene mucha relación con el ecualizador es
el vocoder, que es un instrumento que permite aplicar la evolución espectral
de un sonido a otro, con lo que se realizaría una síntesis cruzada. Para ello,
se divide la señal en varias bandas de frecuencia y mediante un seguidor de
envolvente en cada banda, se analiza cómo evoluciona su amplitud. La otra
señal a modificar se pasa por un ecualizador gráfico con las mismas bandas
de frecuencia cuyos faders repdroducen automáticamente las evoluciones de los
seguidores de envolvente. Vimos un esquema del vocoder al estudiar la síntesis
subsctractiva.
4
2.3.
Puertas de ruido: Noise Gates
La puerta de ruido interviene cuando tenemos una señal con un ruido de
fondo muy importante. El objetivo de la puerta de ruido no es el de limpiar de
ruido la señal (lo cual sería muy complejo), sino sólo los instantes de silencio.
La puerta de ruido es un commutador que se activa cuando el volúmen de
la señal pasa por debajo de un umbral determinado que se denomina noise gate
threshold. Cuando se activa, la puerta de ruido atenúa la señal de entrada (la
apaga). Este hecho se muestra en la figura 3.
Figura 3: Puerta de ruido
Una puerta de ruido dispone generalmente de un tiempo de ataque y de caída
que se pueden regular, ajustando así la progresividad del corte. Una aplicación
típica de la puerta de ruido es la mejora de las bandas sonoras de las películas
antiguas.
2.4.
2.4.1.
Compresores, expansores y limitadores
Compresores
La compresión de la que hablaremos se realiza sobre la dinámica de la señal.
No tiene nada que ver con la compresión de datos de los formatos de audio
comprimidos, como por ejemplo mp3.
La utilidad principal de un compresor audio es la de restringir el rango
dinámico de una señal para pasarla por un conducto con una capacidad menor.
El compresor es, por tanto, un amplificador cuya ganancia está controlada por
5
la señal de entrada. La utilización típica de un compresor es la de reducir la
ganancia del amplificador cuando la señal excede de un cierto límite.
Un compresor se caracteriza por su función de transferencia, que nos
muestra como un valor de amplitud de entrada se relaciona con un determinado
valor de salida. La figura 4 muestra ejemplos de funciones de transferencia de
compresores.
Figura 4: Procesado del rango dinámico. La columna de la izquierda muestra
la función de transferencia asociada con los diversos métodos de procesado.
(a) Señal original, es un sonido crash cymbal al que aplicamos una función de
transferencia lineal. (b) Compresión suave de los picos que los baja algunos dB.
(c) Compresión abrupta de los picos para mantenerlos dentro del umbral definido
por T. (d) Expansión que exagera los picos, creando algunos picos nuevos.
En el interior de un compresor, un circuito detector monitoriza la amplitud de la señal de entrada. Este circuito puede responder a picos o al promedio
de la amplitud de entrada. Un detector de picos reacciona a picos de amplitud, aunque éstos sólo ocurran durante un instante. Los procesadores de rango
dinámico de la figura 4 están basados en detección de picos. Por el contrario, los
detectores de promedio responden más lentamente a la amplitud global de la
señal, típicamente a lo largo de un período de 1 o 2 segundos. Los detectores de
pico reaccionan muy rápido, lo que proporcina seguridad frente a las cargas de
amplitud. Por el contrario, los detectores de promedio proporcionan respuestas
suaves a los cambios de la señal de entrada.
6
El factor de compresión (o compression ratio) es la relación de cambio entre la señal de entrada y la de salida. Un amplificador ordinario tendrá un factor
de 1:1. Un factor de 4:1 significa que un cambio de 4 dB en la señal de entrada
proporciona un cambio de 1 dB en la señal de salida. La alta compresión es un
cliché común en la producción de música popular. Por ejemplo, factores en el
rango 10:1 hacen que las voces pop suenen más íntimas debido a la exageración
de las gesticulaciones de la lengua, del chasquido de los labios, del ruido de la
saliva y de la respiración. Esta exageración se produce cuando todos los sonidos
vocales se escalan al mismo rango de amplitud. En cuanto a los instrumentos
de cuerda punteada como las guitarras eléctricas, una compresión extrema causa efectos de sostenuto. Es decir, el compresor reduce el transitorio del punteo
mientras que multiplica el nivel global por un factor elevado. Cuando esta señal comprimida sufre una fuerte amplificación, como por ejemplo en guitarras
eléctricas, refuerza las oscilaciones sostenidas de la cuerda.
2.4.2.
Expansores
El expansor es el dispositivo inverso del compresor. El expansor exagera los
cambios pequeños de su señal de entrada y los convierte en cambios amplios de
la señal de salida. El factor de expansión determina el grado de expansión.
Por ejemplo, un radio de expansión de 1:5 significa que un cambio de 1 dB en
la señal de entrada se convierte en 5 dB a la salida.
La mayor aplicación es la restauración de viejas grabaciones. Las unidades
de reducción de ruido contienen a veces pares de compresores-expansores. La
figura 4 (d) muestra un efecto de expansión de picos que se aplica a la señal de
entrada de la figura (a).
2.4.3.
Limitadores
El limitador tiene una acción mucho más radical que el compresor, ya que
el factor entre el nivel de entrada y de salida es del orden de 100:1 (mayor que
10:1), lo que significa que para 100 dB más allá del valor del umbral no hay más
que un dB de salida.
Por tanto, un limitador evita que el volúmen de la señal sea mayor que un
cierto umbral, lo cual puede ser utilizado para evitar las saturaciones cuando no
sabemos el volúmen máximo que tendremos a la entrada.
El limitador se utiliza en todas las situaciones donde es crítica un valor
máximo de tensión, por ejemplo en transmisión radiofónica, etc. También se
utiliza en grabación de conciertos en directo, donde es imperativo no cargar el
rango dinámico absoluto de ningún componente de la cadena de grabación. Por
ejemplo, los grabadores digitales tienen un nivel umbral absoluto de entrada a
partir del cual se produce distorsión. Un ingeniero de grabación puede insertar
un limitador antes de la entrada del grabador para asegurar que el umbral del
mismo nunca se supera.
Para evitar un efecto similar a la saturación, la acción del limitador se realiza
gradualmente, aunque utilizando un tiempo de ataque y de bajada más cortos
que para la compresión.
7
2.4.4.
Companders
En la práctica se utilizan conjuntamente compresores y expansores (companders) con el objetivo de contener la dinámica sonora al interior de límites
precisos.
El compresor/expansor se utiliza en todas las situaciones donde la dinámica
de la señal tiene que ser reducida a unos niveles medios, como para la transmisión
radiofónica o la grabación destinada al mercado comercial.
Figura 5: Companders para la reducción de ruido
Las técnicas de reducción de ruido que se han desarrollado para los sistemas de grabación analógica sobre banda utilizan los companders. Una etapa de
compresión se aplica a la señal antes de la grabación, y una etapa de expansión
por la función inversa se aplica a la salida. La etapa de compresión amplifica
las señales débiles, que se ven menos afectadas por el ruido de fondo del soporte
una vez que se graban sobre el mismo. La expansión tiene el efecto de reestablecer el nivel inicial de las señales débiles, lo que tiene también el efecto de
reducir el nivel de ruido. La relación señal/ruido se mejora considerablemente.
Esta técnica de reducción de ruido se ilustra en la figura 5.
El sistema de reducción de ruido Dolby funciona de esta manera, pero con
una etapa suplementaria que consiste en dividir la señal en diversas bandas
frecuenciales diferentes, sobre las cuales aplicamos factores de compresión diferentes según la banda (ver figura 6).
3.
Convolución
La convolución es una operación fundamental en el procesado de señales de
audio digital. Cualquier filtro, por ejemplo, convoluciona su respuesta impulsional con la señal de entrada para producir una señal de salida filtrada.
La convolución de una señal con una respuesta impulsional puede generar
variedad de efectos. Por ejemplo, podemos implementar un efecto de reverberación (reverberator), que es un filtro complejo, mediante la obtención de la
8
Figura 6: Dolby
respuesta impulsional de una sala, y luego convolucionar la señal de entrada con
esa respuesta impulsional. Cuando el sonido convolucionado se suma al original,
suena como si la señal de entrada se hubiera tocado en dicha sala.
Además de los efectos de reverberación, los cuales veremos más adelante en el
punto 6, la respuesta impulsional de cualquier procesador de audio (micrófono,
altavoz, filtro, distorsión, efecto, etc.) puede convolucionarse con una señal de
entrada y tener en cuenta las características de dicho procesador. Esto nos lleva
a aplicaciones musicales de la convolución: la síntesis cruzada o cross-synthesis se
puede implementar también a través de la convolución de dos sonidos arbitrarios.
Si los sonidos de entrada son instrumentales, puede sonar como si un instrumento
estuviera tocando a otro (ejemplo de una campana tocando un gong). Varias
transformaciones puede explicarse matemáticamente a través de la convolución,
incluyendo filtrado, efectos temporales (echo, time-smearing y reverberación) y
modulación.
4.
Retardo
Los retardos temporales, como vimos con los filtros, son la fuente de la
mayoría de los efectos musicalmente útiles sobre las señales de audio. En el caso
de los filtros, la aplicación repetida de retardos nos permite obtener un efecto
directo sobre el espectro del sonido, mediante la manipulación de los valores de
las muestras de diferentes maneras.
9
Figura 7: Línea de retardo
De hecho, la única diferencia entre los circuitos que vimos en los filtros FIR
(de respuesta impulsional finita) y los circuitos de base que se utilizan en los
retardos digitales temporales (figura 7) es la duración del retardo implicado, así
cómo el carácter fijo o variable en el tiempo.
En el caso de los filtres en peine (comb filters), como vimos en el capítulo
de filtros, utilizamos retardos más largos que para los filtros paso bajo o paso
alto. Los efectos obtenidos por los retardos temporales se sitúan, de hecho, en
una línea contínua de los efectos espectrales de filtros digitales.
Un retardo digital puede considerarse de forma general como un espacio de
memoria que contiene un número de casillas para guardar muestras de audio.
Figura 8: 2 Tap Delay line
10
Este tipo de estructura se denomina generalmente FIFO (First In First Out).
Podemos representarlo como un buffer o espacio de memoria circular (figura 8).
En la representación circular, podemos distinguir puntos de entrada (posición
3), donde se escribe la señal en la línea de retardo, y puntos de salida (posición
2 y 8) donde la señal se lee. Podemos imaginar que las muestras recibidas en la
posición 3 se desplazan una casilla a la siguiente, a la velocidad de la frecuencia
de muestreo. Cuando una muestra llega a la posición 8, es leída, y cuando llega
a la 3, es reemplazada por una nueva muestra. Si la línea de retardo presenta
varios puntos de lectura, diremos que se trata de una línea de retardo multi-tap.
La duración del retardo depende de la posición del puntero de lectura en la
memoria circular. Por otro lado, el número de posiciones en la línea de retardo
circular determina el retardo máximo posible.
4.1.
Los retardos fijos: filtrado LP, comb y echo
Los retardos fijos son esencialmente obtenidos cuando los punteros de lectura
de la memoria están siempre en la misma posición cuando se introduce la señal.
Los efectos obtenidos varían si la duración del retardo es corta o larga.
4.1.1.
Retardos fijos de duración inferior a 10 ms: efecto de filtro LP
En el caso de los retardos cortos, del orden de menos de 10 ms, cuando la
señal retardada se mezcla con la original obtendremos el efecto de filtro FIR LP,
como vimos en el capítulo de filtros digitales FIR.
4.1.2.
Retardos fijos de duración entre 10 y 40 ms: efecto de filtro
en peine
Cuando la duración del retardo se aleja de 10 ms, se genera un filtro en peine
FIR, como vimos en el capítulo de filtros digitales. Las duraciones mayores entre
10 y 50 ms dan a la señal una impresión de crecimiento y, según el caso, de
duplicación de la señal original. También se habla de efectos de coloración, ya
que se refuerzan ciertas frecuencias en relación armónica.
El efecto de filtro en peine introduce la anulación y el refuerzo de fase entre
la señal retardada y la original. Este efecto se explica de la forma siguiente:
en las bajas frecuencias, el retardo no tiene ningún efecto sobre la fase, y las
dos señales (original y retardada) se suman, lo que amplifica la señal de salida.
A las frecuencias más elevadas, el retraso ocasiona un desfase que se aproxima
progresivamente a los 180o . Por ejemplo: a 2 KHz, un retardo de 0.25 ms genera
un desfase de 180 grados. Cuando se suma con la versión original, las dos señales
se anulan a esta frecuencia. Cuando el desfase es de 360 o , tenemos otro pico de
refuerzo (4 KHz), y así sucesivamente.
Para poner un ejemplo, veamos las frecuencias del primer pico de resonancia
de un filtro en peine para diferentes valores de tiempo de retardo. Las frecuencias
corresponden también a la distancia en Hz entre dos picos sucesivos.
11
Tiempo de regardo
20 ms
10 ms
2 ms
1 ms
0.500 ms
0.250 ms
0.125 ms
0.100 ms
4.1.3.
Frecuencia
50 Hz
100 Hz
500 Hz
1 KHz
2 KHz
4 KHz
8 KHz
10 KHz
Retardos de duración superior a 50 ms: efecto de echo
Cuando el retardo excede aproximadamente los 50 ms, comenzamos a diferenciar las distintas señales retardadas, lo que según la aplicación nos sugerirá
la presencia de un muro reflectante a una distancia determinada de la fuente.
Figura 9: Echo
Si sabemos que la velocidad del sonido es aproximadamente 340 m/s, un
muro situado a 7 m de la fuente, por ejemplo, reenvía una señal reflejada 50 ms
después de haber sido emitida por la fuente. Este efecto de eco es esencial en
la simulación de espacios acústicos reales y para la localización de una fuente
sonora en el plano cartesiano (figura 9).
Podemos simular la procedencia de una fuente de la izquierda aplicando un
ligero retardo a la señal del canal derecho. Es el efecto psicoacústico denominado efecto de procedencia o efecto Haas (aunque las dos señales tengan igual
amplitud).
4.2.
Los retardos variables: flanging, phasing y chorus
Mediante la modulación de la posición de los punteros de lectura en la memoria circular, podemos obtener efectos de retardos variables, es decir, variando
12
la duración del retardo. Los efectos obtenidos son el flanging, el phasing, chorus
y toda una gama de efectos de transposición.
4.2.1.
Flange
Figura 10: Flange
El flanging electrónico (figura 10) deriva de un fenómeno acústico natural que
se produce cuando se escucha un ruido de espectro en medio de una mezcla de
sonido directo y retardado. Fue descubierto por el matemático y físico holandés
Christiaan Huygens en 1693.
Diferentes situaciones conducen a la percepción de este efecto. Un ejemplo
clásico es el de la fuente y la escalera. El ruido de una fuente se refleja en
los escalones de una escalera y un receptor que se coloque entre la fuente y
los escalones puede percibir el filtrado resultante de la suma del sonido directo
y reflejado por los escalones, que llegan con un cierto retardo a los oidos del
receptor.
Otro ejemplo es el del avión que despega. El sonido directo emitido por el
avión se suma con el sonido reflejado por el suelo, en el que el retardo cambia
contínuamente a medida que el avión toma altitud.
El guitarrista Les Paul fue el primero en utilizar el efecto de flanging como
efecto sonoro en un estudio de grabación. Su sistema de flanging, puesto en
marcha en 1945, empleaba dos grabadores a disco en el que uno tenía un control
variable de la velocidad.
En los años 60, el flanging se implementaba en estudios con dos grabadores
de banda analógicos y una consola de mezcla, como ilustra la figura 10. Los
grabadores recibían la misma señal y el ingeniero controlaba su salida combinada
presionando de vez en cuando sobre el borde (flange) de una de las bobinas para
disminuir su velocidad. De aquí el nombre del efecto.
Este efecto fue utilizado notablemente en mezcla del album Sergent Pepper
de los Beatles (While my guitar gently weeps por ejemplo). Más recientemente,
13
lo encontramos en el solo de guitarra de Lenny Kravitz en Are you gonna go my
way?).
El flanging digital utiliza una línea de retardo en la que el retardo puede
variar en el tiempo. En lugar de una presión manual sobre el borde de la bobina,
el tiempo de retardo de un flanger electrónico se controla con un oscilador a
baja frecuencia (LFO) en el que la forma de onda es habitualmente sinusoidal o
triangular (como ilustra la figura 11) y en el que la frecuencia se siúa entre 0,1
y 20 Hz.
Figura 11: Variable delay
Figura 12: Implementación de un flanger
El efecto de flanger podría llamarse efecto de filtro en peine deslizante en el
que los picos de resonancia se desplazan a lo largo del eje de frecuencias.
Los parámetros del efecto de flanger son:
La profundidad del efecto, que depende de la proporción de señal retardada
que se suma a la señal original (la profundidad es máxima cuando las
amplitudes de la señal original y retardada son iguales).
14
El tiempo medio de retardo.
La frecuencia del LFO que controla la modulación del retardo.
Aunque la estructura que describimos anteriormente (la idea de los dos grabadores) es equivalente a un filtro FIR, en la práctica la mayoría de las implementaciones modernas de flanging utilizan una estructura en peine recursiva o
IIR (figura 12). Los picos de resonancia en el espectro se encuentran a intervalos
múltiplos exactos de 1/D, donde D es el tiempo de retardo medido en segundos.
4.2.2.
Phasing
Es un efecto similar al anterior, pero la alteración del timbre no es tan
pronunciada. Una señal con un espectro rico se envía a través de una serie de
filtros pasa-todo (con respuesta en frecuencia plana que sólo afectan la fase de
la señal).
Un oscilador de baja frecuencia puede utilizarse para controlar la cantidad
de desplazamiento de fase (phase shift) introducida por el filtro pasa-todo (allpass). Las salidas de los filtros se mezclan con la señal original. Como en el caso
de flanging, produce un efecto de filtro en peine desplazándose.
¿Cuál es la diferencia entre phasing y flanging? El flanging resulta de resonancia y anulaciones en el espectro espaciadas uniformemente a lo largo del eje
de frecuencias. Por el contrario, los picos y valles en la respuesta en frecuencia de un phase shifter corresponde a un número de etapas de los filtros que lo
componen. La separación, profundidad y longitud de las anulaciones de espectro
pueden ser variadas.
El phasing puede utilizarse para crear el efecto de procedencia y modificar
el azimut aparente de una fuente sonora.
4.2.3.
Chorus
Este efecto ha fascinado durante largo tiempo a músicos e ingenieros de
sonido. Dado un instrumento y una voz (acústica o electrónica) se puede tratar
la señal de manera que se le de la riqueza y profundidad de un conjunto (coro)
de fuentes de la misma naturaleza.
Este efecto requiere pequeñas diferencias entre las voces de la mezcla simuladan incluyendo ligeros retardos, alteraciones de la frecuencia fundamental, y
vibrato asíncrono.
Hay muchos algoritmos para implementar este efecto. Los primeros se remontan a los años 40, cuando Hanert construyó líneas de retardo electromecánicas para la música electrónica, que fueron después utilizadas en los órganos
Hammond. Más tarde, una versión puramente electrónica de estos choral tone
modularos aparecerá en los órganos electrónicos de Baldwin.
En los sistemas digitales, el efecto chorus puede implementarse enviando
el sonido en una línea de retardo multi-etapas, donde los tiempos de retardo
varían constantemente en un rango pequeño de valores. Estas variaciones causan
el efecto de desafinar y redoblar variando en el tiempo. Esto es equivalente a
enviar la señal a través de un bando de flangers en paralelo, aunque los retardos
en el flanger tienden a ser más cortos que los que se utilizan para un efecto de
chorus (15 a 35 ms, LFO 3 Hz).
15
Otra técnica consiste en separar la señal en diversas bandas de octava y
aplicar un emplazamiento del espectro diferente para cada banda. La cantidad
de separación en frecuencia debe variar aleatoriamente en un rango pequeño de
valores. Las señales se envían luego a las líneas de retardo variables.
4.2.4.
Transposición
Al hacer avanzar o retroceder el puntero de lectura de una línea de retardos,
vemos que el sonido obtenido en el punto de lectura sube o baja si aumentamos o
disminuimos el tiempo de retardo. Este efecto se deriva de que la lectura variable
es de hecho un resampling (o cambio de la frecuencia de muestreo): la frecuencia
de muestreo se acelera o no según la velocidad de variación del retardo. Cuando
la variación del retardo es constante, la transposición obtenida es constante.
Este efecto secundario de la variación del retardo se utiliza para efectos
de masa, cuando varios retardos modulados por diferentes factores de tiempo se
suman para formar una masa donde cada componente tiene una altura diferente.
Este tipo de efectos chorus pueden obtenerse también con un pequeño número
de unidades de retardo y la reinyección a la entrada de las señales de salida.
5.
5.1.
Modificación del contenido frecuencial
Transposición
De forma general, esta transformación no tiene por qué implementarse utilizando retardos. La transposición consiste en cambiar la altura del sonido manteniendo constante la relación de frecuencia entre los parciales. Por ejemplo, si
tenemos un sonido que consta de una serie de armónicos, por ejemplo 4 primeros
armónicos de frecuencia 50 (fundamental), 100, 150 y 200 Hz, su transposición
de una sexta mayor ascendente equivale a multiplicar todas ellas por el factor
8/5, dando lugar a 80. 160, 240 y 320 Hz. La proporción entre los armónicos se
mantiene.
Una aplicación de la transposición es el armonizador, que realiza una transposición a uno o varios intervalos que se suma con la señal original, dando lugar a
una serie de acordes. También se utiliza para el efecto chorus, dando la sensación
de que hay más de un instrumento.
El timbre percibido cambia mucho si el intervalo de transposición es muy
grande. Hay algoritmos más complejos en dominio temporal y frecuencial que
generan una transposición preservando el timbre original.
5.2.
Desplazamiento en frecuencia
Este efecto consiste en sumar o restar la misma frecuencia a todos los parciales. El efecto producido, a parte de un cambio de altura, es sobre todo tímbrico,
obteniéndose en la mayoría de los casos sonidos inarmónicos, ya que no se mantienen las relaciones armónicas entre las frecuencias.
Este efecto se denomina también modulación de banda lateral única, y la
forma de realizarlo se deriva de la modulación en anillo. En la RM se producen
bandas laterales a ambos lados de la portadora, mientras que en el desplazamiento sólo en el lado agudo (suma de frecuencias) o grave (resta de frecuencias).
16
Los dispositivos que implementan estos efectos se denominan desplazadores de
frecuencia.
5.3.
Morphing
Se denomina morphing a una transformación la cual, a partir de dos o más
elementos, genera un elemento nuevo con propiedades híbridas. La mayoría de
las técnicas de morphing de audio se bassan en la interpolación de parámetros del
audio resultado de una filosofía de análisis/síntesis del sonido. Dichos parámetros
pueden ser parámetros de la transformada de Fourier o del espectro del sonido,
modelos sinusoidales, etc.
Un ejemplo sería un algoritmo que interpola frecuencias, fases y amplitud
de componentes del espectro.
6.
Reverberación
La reverberación es un campo fértil de experimentación para los compositores de música electroacústica que les permite situar el sonido en espacios
imaginarios que no siempre simulan espacios reales.
6.1.
Fenómeno acústico
La reverberación es un fenónemo complejo y natural que resulta de la interacción entre las fuentes sonoras y el lugar en el que las ondas se propagan.
Es el resultado de millares de ecos que se producen cuando el sonido es
reflejado por obstáculos (paredes, muebles, etc). La acumulación de ecos es lo
suficientemente densa para dar la impresión de un sonido contínuo.
La reverberación proporciona al sonido un cierto color y ayuda a percibir la
naturaleza del entorno inmediato: materiales, muebles de la sala, tamaño, etc.
La respuesta impulsional de la sala contiene diversas fases, como ilustra la
figura 13.
Figura 13: Reverberación de una sala
El retardo inicial separa el sonido directo de la primera reflexión. El tiempo
de reverberación es el que tarda la señal reverberada en atenuarse 60 dB por
debajo de su amplitud máxima.
17
6.2.
La reverberación artificial
Manfred Schroeder de los Laboratoires Bell es el pionero en la reverberación
artificial, que ofreció simulaciones realistas en todo tipo de espacios a partir de la
aparición del audio digital. Sus algoritmos proponen utilizar retardos, filtros
pasa-todo y filtros en peine. Los retardos se utilizan para reproducir las
reflexiones primarias de la sala, y se conectan en serie o paralelo para crear una
nube muy densa de reverberación. Los filtros en peine de tipo IIR (figura 14),
comprenden un bloque de reinyección y crean múltiples ecos. El valor del retardo
es normalmente mayor de 10 ms.
Figura 14: Filtros IIR en peine
Mediante el control del nivel de reinyección del filtro, podemos hacer más
lenta la tasa de atenuación de los ecos y, de esa forma, alargar la duración de
resonancia del filtro. La ganancia g < 1. En cada pasada del bucle, se multiplica
la amplitud de un impulso por este valor de g, por lo que se obtendrá una serie
de potencias g, g 2 , g 3 , g 4 , ...
Figura 15: Filtros pasa-todo
Los filtros pasa-todo (figura 15) se construyen con un filtro en peine cuya
salida se mezcla con una copia de la señal original invertida (en oposición de fase
con la señal de salida del filtro en peine). Esta inversión de fase contrarresta los
efectos espectrales del filtro en peine. Los filtros pasa-todo transmiten, por tanto,
todas las frecuencias de las señales estables, pero tienen un efecto importante en
la fase de las mismas. Como ilustra la figura 16 (a), una unidad de reverberación
de base se compone de 4 filtros en peine en paralelo, seguidos de 2 unidades de
18
filtros pasa-todo en serie.
Figura 16: Unidad de reverberación
Los tiempos de bucle se fijan para tener una respuesta en frecuencia natural.
Un reverberador eficaz podrá por tanto utilizar un conjunto de filtros en
peine y pasa-todo con el fin de crear la densidad de ecos necesaria para una
simulación real. Schroeder propuso dos modelos de reverberador (figura 16 (a)
y (b)), en los que la sonoridad es función de los retardos y de los factores de
reinyección. Será esencial también especificar los tiempos de retardos para cada
filtro, que será preferiblemente números primos, para evitar que los ecos no se
doblen y den un efecto periódico a la reverberación.
El esquema de bloques de la figura 17 representa una mejora de los reverberadores de Schroeder, que comprende una etapa en paralelo suplementaria
consistente en una línea de retardos multi-tap que permite simular las primeras
reflexiones de la señal original.
Será útil también poner filtros pasa-todo en los circuitos para simular el
efecto de atenuación sobre las altas frecuencias de todo espacio resonante.
Dentro de los efectos de reverberación se debe incluir el efecto de convolución
con la respuesta impulsional de la sala, como mencionamos en el punto 3.
19
Figura 17: Unidad de reverberación
7.
7.1.
Espacialización
Utilización musical de la espacialización
La posición del sonido en el espacio virtual definido por un conjunto de
altavoces es una etapa de la producción que se ha convertido en esencial para
el éxito de todo proyecto musical. No sólo el procesado del espacio permite
posicionar unos sonidos respecto a otros. Además, facilita la contextualización
misma de la música.
La reverberación y la localización (espacialización) permiten trabajar el sonido en diferentes planos relativos, poniendo en relieve ciertos eventos respecto
a otros, realizando un tipo de orquestación del sonido donde la posición de cada
sonido puede contribuir no sólo al engrandecimiento aparente del lugar de la
música, sino también a su claridad estructural.
Estas construcciones audio-espaciales son específicas a las músicas electroacústicas, porque no existen más que en el contexto de los espacios artificiales.
Algunos comparan esta puesta en situación del sonido con una actividad cinematográfica, comparando los ángulos con planos de cámara, las longitudes
focales y la profundidad de campo de la camara con la repartición del sonido en
el espacio estereofónico o multi-altavoces.
Una buena proyección sonora en un espacio de concierto depende de una
buena compresión del comportamiento físico de las ondas y del funcionamiento
de nuestro sistema auditivo. Se ha intentando desde hace siglos utilizar el espacio
como una componente musical importante. Pero el altavoz permite poner una
20
fuente sonora en cualquier sitio, con un tamaño aparente (volúmen) arbitrario.
Desde los inicios de la música electroacústica en los años 50, se han propuesto
varias soluciones, desde las orquestas de altavoces a los últimos sistemas de
codificación surround. Ninguna solución al día de hoy ha conseguido imponerse
como formato de difusión, aunque los sistemas AC-3 5.1 de Dolby son ahora
moneda corriente en el mercado de las cadenas de audio comerciales.
Si la espacialización es la práctica general de situar espacialmente el material
sonoro, la localización es una técnica precisa que permite posicionar el sonido
en el plano horizontal. La localización es un campo de estudio muy importante
en psicoacústica, ya que diversos mecanismos dependen de nuestra capacidad
de identificar rápidamente la procedencia de una fuente sonora.
7.2.
Los índices perceptuales
La posición de una fuente sonora puede definirse a partir de los parámetros
siguientes:
El ángulo azimut (en el plano horizontal respecto al plano frontal vertical).
La distancia y la velocidad de desplazamiento de la fuente si ésta está en
movimiento.
La elevación (en el plano vertical).
Nuestro sistema auditivo determina el azimut de una fuente sonora a través
de tres diferencias inter-aurales:
La diferencia de tiempo de llegada del frente sonoro (efecto de procedencia)
para las bajas frecuencias.
La diferencia de amplitud para las frecuencias medias (efecto de sombra
acústica).
Las diferencias espectrales causadas por las reflexiones asimétricas sobre
los hombros, la cabeza y sobre todo la oreja, para las altas frecuencias
(aquellas que tienen una longitud de onda del mismo orden de magnitud
que las dimentiones de la cabeza y las orejas).
La percepción de la distancia de una fuente se basa en los siguientes fenómenos:
La relación entre la intensidad de la señal directa (proporcional a la inversa del cuadrado de la distancia) y la intensidad de la señal reverberada
(relativamente constante).
La atenuación con la distancia de las altas frecuencias.
La atenuación de los detalles de la fuente (ausencia de señales débiles).
Por otro lado, cuando la distancia entre el sonido y la fuente cambia, el cambio de altura de la fuente (efecto doppler) indica al velocidad y la dirección
de la fuente (transposición a los agudos si el objejeto se aproxima).
La percepción de la elevación se debe exclusivamente a los efectos espectrales del torso, de la cabeza y del oido externo sobre las componentes de alta
frecuencia de las señales.
21
7.3.
La panoramización
Para situar un sonido en el eje horizontal entre dos altavoces, se tiene que
variar la amplitud de la misma señal en los dos altavoces. Cuanto más fuerte
es la amplitud en uno de ellos, más parece el sonido venir de esa dirección. La
función que se utiliza para variar al amplitud es determinante para la localización
aparente del sonido. Una función lineal (figura 18) nos dará la impresión de que
el sonido es más débil cuando está al centro (1/2 de la amplitud a la derecha y
1/2 a la izquierda) en comparación con los extremos (todo a la derecha o todo
a la izquierda).
Figura 18: Panning
Para explicar este fenómeno hay que recordar que según la ley de la intensidad sonora, el volúmen percibido de un sonido es proportional a su intensidad,
la cual es proporcional al cuadrado de la presión (es decir, de su amplitud). Sea
A la amplitud que se envía al altavoz de la izquierda y B al de la derecha, y sea
x la posición dentre los dos altavoces, que vale 1 a la izquierda y 0 a la derecha.
La amplitud varía de la forma siguientes:
A=x
B =1−x
Y la intensidad de la forma siguiente:
I = A2 + B 2
A la izquierda, A = 1 y B = 1 − 0 = 0. Deducimos entonces que I = 1.
Igualmente, a la derecha, A = 0, B = 1 y I = 1.
Por el contrario, en el centro A = 0,5 y B = 0,5, lo que genera una intensidad:
I = A2 + B 2 = 0,52 + 0,52 = 0,25 + 0,25 = 0,5
Es más débil en el centro que en los extremos. Para evitar este problema
utilizaremos una función sinusoidal para controlar la amplitud de las señales
(figura 18 a la derecha):
22
√
A = ( 2/2)[cosα + sinα]
√
B = ( 2/2)[cosα − sinα]
donde α es el ángulo azimut, y vale 45o en el extremo izquierdo y -45 en el
derecho. La posición central tendrá un azimut 0:
√
A = ( 2/2)[cos0 + sin0] = 0,707
√
B = ( 2/2)[cos0 − sin0] = 0,707
La intensidad I = 0,7072 + 0,7072 = 0,5 + 0,5 = 1, igual que a los extremos.
7.4.
HRTF : Head-Related Transfer Function
Para simular el audio 3D, es decir, la localización de una fuente en el plano
horizontal y en elevación, hay que recurrir a técnicas sofisticadas.
Se puede utilizar una respuesta en frecuencia HRTF (Head-Related Transfer
Function), que tiene en cuenta el filtrado llevado a cabo por el torso, la cabeza
y el oido externo en función del ángulo de azimut y del ángulo de elevación del
frente de ondas. El problema ligado a la utilización de esta técnica es que las
diferencias inter-individuales puede ser importantes. En la figura 19 se representan las HRTF’s de dos personas diferentes (oreja izquierda y la fuente localizada
al nivel de la oreja). Se observa que las diferencias son muy marcadas a partir
de 8 KHz.
Figura 19: HRTF
8.
Referencias
Roads, C., The Computer Music Tutorial, The MIT Press, 1996. pp. 390492.
Zölzer, U., editor. DAFX: Digital Audio Effects, John Wiley & Sonds, Ltd,
2002.
http://www.unibw-hamburg.de/EWEB/ANT/dafx2002/DAFX_Book_Page/
23
Descargar