Subido por florencia.paris22

Resumen para Producción Audiovisual Cinética I

Anuncio
Narrativa
Sugerencia: Bibliografía - Film art (David Bordwell & Kristin Thompson)
¿Qué es la narrativa?
Es el recuento de una serie de eventos o experiencias relacionadas que se convierten en
una historia. Pueden ser hechos reales o ficticios.
Existe la presencia de alguien que viva dichos sucesos, al menos un personaje que vive
dichos eventos.
Es universal y parece ser la forma más efectiva que encontramos los humanos para
comunicar, explicar y entender al otro y comprender el mundo.
La narrativa más antigua es el contar historias desde la oralidad. Esta forma de narrativa
existe prácticamente en toda nuestra vida. Desde niños nos enseñan con historias.
Modos retóricos
Se coloca a la narrativa dentro del grupo de los 4 modos retóricos discursivos:
Narración (siendo la más usual que tenemos para comunicarnos).
Descripción.
Exposición.
Argumentación.
Géneros narrativos
-Non fiction
Relato de una historia o un cuento que no necesariamente es ficción, pero de alguna forma
al momento de contar esta historia, el cineasta, fotógrafo, orador o actor, está dando su
versión de esos hechos, que sufren un proceso. Ejemplos: biografías, artículos
periodísticos, algunos documentales, etc.
-Ficcionado de eventos reales
Cuando está basado en hechos reales, y se entiende que los hechos no fueron así, sino
que la interpretación es explícita. Se modifican los hechos por motivos de interés o motivos
expresivos. Ejemplos: anécdotas, mitos, leyendas, películas, etc.
-Ficción Historias inventadas
Se da mucho en los videojuegos hoy en día, o en el teatro. Ejemplos: novela literaria,
algunos tipos de poesía, canciones, juegos, algunas artes escénicas, etc.
La narrativa se encuentra presente dentro de las expresiones humanas (incluso fuera de la
oralidad): arte, literatura, cine, pintura, fotografía, teatro, etc. Se encuentra también en el
periodismo, en la escultura.
La narrativa en la fotografía
La fotografía se vale de técnicas o recursos para componer la imagen, que es el factor más
determinante para la narración.
La composición como forma narrativa
Todas las decisiones que llevan a la realización de una composición son las que van a
permitir al fotógrafo poder transmitir un mensaje, incluso puede permitir contar una historia,
por simple que sea. Un fotógrafo, toma muchas decisiones (y no puede tomar otras) donde
recorta la realidad.
Aspectos compositivos
Armado de la escena (si hubiera).
Encuadre (qué se elige dejar por dentro y fuera de cuadro).
Cómo se presenta el espacio.
Profundidad.
Foco / Fuera de foco.
Valor de plano.
Tipo de iluminación.
Balance.
Ley de tercios, medida áurea, etc.
Estética.
Hay aspectos meramente técnicos, que sin ellos no podemos realizar la fotografía, pero hay
otros, que aparte de lo estético, son funcionales a la comprensión de una historia.
Cámara
Primero arrancamos hablando de hardware, software, y tipos de archivos. Luego se hablará
de exposición.
Tipo de archivos y los codec de esos archivos Esto es a modo de saber
general, no debemos profundizar mucho en esto.
CODEC: COdificación- DECodificación protocolos de codificación. Se utilizan sobre todo para
bajar el peso del archivo.
Video Codecs & Compression Guide (Feat. Atomos Ninja V) - YouTube
Link aquí. Video Codecs & Compression Guide (Feat. Atomos Ninja V) - YouTube
.MOV Archivo de video clasico de Apple
.MP4 Video de todos los otros sistemas informáticos
.MPG
.MKV Archivos de cámaras de publicación.
Los CODEC están asociados a cada tipo de archivo y se necesita que en el dispositivo
donde se quiera trabajar con ese archivo, tenga el mismo CODEC, para poder ver y
reproducir ese archivo es como su traductor.
.H264/MPEG-4 (DEPENDIENDO DE LA CÁMARA SONY O PANASONIC). Este hoy es el
más difundido, se usa en la mayoría de las plataformas de video digital.
.XAVC-S (NO DIFIERE DEL H264)
.H265
.RAW Este es el archivo casi sin compresión. Es de registro. Luego no se exportan los videos en
este formato.
APPLE ProRes Este es uno de Apple que tenía muy buena calidad que se sigue usando hoy.
AVID DNxHR
La recomendación de uso para nosotros es que sea un .MOV o .MP4 y el CODEC un
.H264/MPEG-4 que es el que funciona mejor.
Hay que ver si las cámaras lo tienen, y si no lo tienen se trata de exportar con este tipo de archivo
luego.
A veces se tiene un archivo .MOV y no se puede reproducir, entonces hay que descargar un
programa que trae el decodificador. Hoy día hay unos cuantos reproductores que te traen packs de
codificaciones para que sea más accesible.
Relación de aspecto Esto es un aspecto a ajustar siempre y cuando la cámara lo permite
es la relación de aspecto y la resolución.
La relación de aspecto es la relación alto-ancho. Es totalmente independiente de la cantidad de
pixeles, no tiene que ver con eso, esto tiene que ver con el formato. Si esto de los pixeles claramente
repercute en la calidad con relación al tamaño pero con la relación de aspecto no tiene nada que ver.
La relación de aspecto es la proporción.
1:1 Este se usa para redes sociales
4:3 Este se utiliza en TV analógica / cámaras de video antiguas
16:9 Es el que está más expandido. Todas las cámaras y teléfonos que filman son 16:9
2.35:1 / ANAMÓRFICO / CINEMASCOPE Es parecido al 21:9
La recomendación es 16:9, el full hd es 16:9 y es como el estándar.
Link para profundizar sobre relación de aspecto
Resolución La resolución es lo mismo que la imagen fija: lado por lado me da la cantidad de
píxeles. Cuando vamos a hacer proyecciones de cine, no es lo mismo si proyecto un Full HD o un 4K,
pero en un celu o una tv normal no se nota la diferencia. El cine hoy no se ve en Full HD, se ve de 4K
en adelante. En un celu por ejemplo, nos venden por una cuestión comercial y de vendernos algo
mejor, un 4K que realmente no se le saca provecho. En PAC no vamos a trabajar con algo mayor a
Full HD.
SD: hasta 480 x 270
DV: 720 X 480, 720 X 576
HD: 720 x 1280 / FULL HD: 1920 x 1080
2K: 2048 x 1080
4K: 4096 x 2160
6K, 8K, to be continued…
Calidad No se habla en términos absolutos, porque todo lo anterior también tiene que ver con la
calidad, pero en este caso vamos a hablar de calidad en relación a la cantidad de información que
tienen nuestros archivos, que se mide en BITRATE. Bits por segundo (BPS). Muchas cámaras
tienen la capacidad de fijar eso para el mismo formato y mismo CODEC. Luego podemos exportar
con postproducción con más o menos Bits por segundo, y esto tiene que ver con el “para qué” lo voy
a usar. Siempre pensar para donde va a ir ese video, la idea es poder armar un producto acorde.
Las cámaras graban a distintas calidades:
-Archivos de más o menos peso
-Memorias más rápidas
Para post-producir:
-Se pueden generar proxies de menor calidad
Exportación y reproducción:
-Archivos de más o menos peso
-Es posible exportar con un Bitrate constante o variable.
Link aquí para profundizar con Bitrate
Cantidad de cuadros por segundo Frame Rate.
Las cámaras graban a distintas cantidades de cuadros por segundo.
24 (23.976) Este es el estándar de cine, es el número con el que se supone que nuestro cerebro lo
ve como un movimiento fluido, deja de ver pausas entre cuadro y cuadro. Hoy existen películas, por
ejemplo: de acción, que requiere que las proyecciones se hagan en más cuadros por segundos para
generar ciertos efectos. No sabemos si todos los cines del mundo están equipados con las
tecnologías necesarias para reproducir esto.
30 (29.976)
50
60
120 Este en general se puede usar para cámaras lentas
240….
El estándar de grabación y reproducción de cine es 24 cuadros por segundo.
Grabaciones a mayor FPS, en general, se usan para que al momento de reproducir en 24
FPS se logre la cámara lenta fluida.
También se pueden obtener otros efectos combinando distintos FPS de grabación, FPS de
postproducción y FPS de reproducción.
La cantidad de cuadros por segundo se puede usar entonces para generar la llamada cámara rápida
(pocos planos por segundo) y cámara lenta (muchos planos por segundo).
Si se quiere hacer tomas lentas se necesita grabar en 120 o 240 porque es necesario que tengas la
info en la imagen. La computadora puede quitar info sin problema pero no puede inventarla, el tema
es que sobre pero no falte.
La recomendación es 24 FPS
Variable de cámaras
OBTURADOR - SHUTTER
DIAFRAGMA - APERTURE
SENSIBILIDAD - ISO
--------------------------------FILTROS ND - ND FILTERS
Este es el famoso triángulo de la exposición. Estas imágenes nos aclaran más la situación:
La idea de la exposición es que exista un balance entre las tres variables. Si muevo una, la otra va a
compensar. Medio que están atadas. Es la balanza que tiene la lógica de la fotografía: si saco de un
lado, pongo en el otro.
Y en video tenemos otro jugador más que nos va a ayudar, que son los filtros de densidad neutra,
son como un lente de sol. Tiene partículas de color negro que filtran la luz. Hay distintas
graduaciones, dependiendo de lo que necesiten. Hay algunos que van enroscados en la cámara,
otros van puestos en el sensor, etc. La unidad de medida son pasos de luz.
Siempre se realizan ajustes de modo manual en todo, nada de que la cámara nos maneje a nosotros.
Cada punto del triángulo de exposición te va a ayudar a contar la historia. Podemos elegir que
queremos ver en la película.
Todos los puntos inciden en la luz, todos influyen expresivamente. Pero cada uno tiene su
función. El ISO por ejemplo incide en el ruido.
Obturador
La velocidad de obturación es lo que te hace generar fantasmitas. El obturador se mide en segundos,
siempre se habla de fracciones de segundos, el número que está abajo divide al de arriba, son
realmente fracciones. + / - LUZ EN TIEMPO
Obturación lenta: desenfoque de movimiento.
Obturación rápida: nitidez extrema.
Se mide entonces la velocidad de obturación en segundos y fracciones de segundo,
representando en general el número denominador.
Se puede generar algo:
NÍTIDO vs DEMASIADO NÍTIDO vs DESENFOQUE DE MOVIMIENTO
REGLA DEL OBTURADOR DE 180°
EL OBTURADOR DEBE ESTAR AJUSTADO AL DOBLE (INVERSO) DEL FPS Esta regla es
en relación a la cantidad de cuadros por segundos. Si filmamos a 24 FPS hay una obturación óptima
para que nosotros identifiquemos esa imagen como una imagen cinematográfica, que tiene que ver
con nuestro adiestramiento de años de ver cine. La imagen cinematográfica, entre otras cosas tiene
esta característica, por ejemplo: si filmo en 24 cuadros por segundos, la velocidad de obturación tiene
que ser el doble, entonces sería 48, es decir el denominador de la fracción de la velocidad de
obturación va a ser 48, por lo tanto la fracción será 1/48. Esto nos genera una imagen media, ni muy
borrosa ni muy nítida. Todas las películas generalmente que no buscan algo narrativo particular, se
basan en esto. Hay que tratar de respetar estas reglas, a no ser que se quieran romper.
Hay efectos que se deben hacer directamente con la cámara porque no pueden hacerse en
postproducción, por lo tanto es importante tener estas cosas en cuenta.
Dice 50 en vez de 48 porque en general las camaras
trabajan con ese número.
Link aquí para profundizar en Obturación
Flickeo
HAY QUE EVITARLO. Efecto que pasa por el uso de elementos que no son para cinematografía, es
un efecto de la frecuencia en la luz. Es física. La luz tiene una frecuencia, y cuando coincide con la
velocidad de obturación se pueden ver ondas. A veces lo podemos ver en la tv, o en una pared
blanca. Hay que tener ojo.
Diafragma (Apertura)
Regula el ingreso de la luz. La unidad son los números f.
Apertura: números f (32, 22…. 2.8, 2, 1.8, 1.6, 1.4, 1.2, 0.9)
Cuanto más chico el número, más grande la apertura. Los números grandes generan grandes
desenfoques, hay que monitorearlo muy bien. Esto es lo que genera la profundidad de campo.
Cuanto más chico, menos luz entra y más grande la profundidad de campo, es decir más objetos en
posiciones de foco tengo, para atrás y para adelante.
Cuanto más grande la apertura, menor profundidad de campo. No depende de dónde estemos
parados físicamente al momento de sacar la foto. Puedo hacer que entren o salgan objetos del plano
modificando la profundidad de campo.
La forma y cantidad de las paletas del diafragma va a provocar un efecto distinto en el desenfoque,
en los puntos de luz, etc. Hay lentes que se caracterizan por estas cosas.
+ / - LUZ
+ / - PROFUNDIDAD DE CAMPO
Sensibilidad
A mayor ISO está más iluminada la foto, podes arruinar una foto/video con esto, o logras un efecto
buscado, pero en conclusión, podemos quemar una imagen, podes perder luz, etc., depende de lo
que se mueva.
El ISO hace que el sensor sea más sensible a la luz.
Originalmente el ruido que es en la parte digital, se veía antes como el granulado, que era un efecto
que era difícil de evitar cuando se hacía de forma analógica, debido a que se generaban por los tipos
de productos que se utilizaban para el revelado.
Hay un tema de los sensores. Tienen un rango, donde el fabricante marca cual es el óptimo,
entonces el ruido de la película digital se puede usar como parte de un efecto narrativo. Hay que
tener en cuenta esto, que no solo lo uso para tener más luz.
Se mide la sensibilidad en: números ISO, 100….64.000 o más dependiendo del sensor.
+ / - LUZ
+ / - RUIDO
Filtros ND
NOS PERMITEN LA UTILIZACIÓN DE LAS OTRAS VARIABLE CASI SIN LÍMITES EN
CUANTO AL EXCESO DE LUZ
Se utilizan para que no se quemen las
imágenes, sirve mucho para el exterior.
Todo el que quiera dedicarse a la
videografía es recomendable que se
compre un filtro ND porque es un antes y
un después para poder filmar en exterior.
Se pueden tener muchos filtros por
separado para cada plano. Se gradúan
en pasos.
De una foto sobreexpuesta no se puede
recuperar, el detalle lo pierdo.
Focos
Otras funciones o recursos en cámaras
ESTABILIZADORES DE IMAGEN DE 3 EJES EN EL SENSOR
Lentes
Distintas clasificación de lentes
LENTES DE CINE VS. FOTOGRÁFICOS
En general los lentes de cine son muchos más grandes que los fotográficos, y por ende los
elementos son más grandes, y los precios son carísimos.
Los lentes de cine son en números T y los de fotografía en números F.
FIJOS (PRIMES) VS. ZOOMS
Existen accesorios que se colocan
en el apoyo de las cámaras
(trípodes) que ayudan a la
maximización de la exactitud en el
movimiento y a la fluidez en las
grabaciones.
Identidad del lente.
Distancia focal.
Apertura o número de F (T en
cine)
ANGULARES - NORMALES - TELEOBJETIVOS
En estos puntos se verá el tema de los ángulos, y la distinción de la diferencia de las medidas.
GRAN ANGULAR: desde 4 mm a 35mm
Registra un gran ángulo del campo que tenga por delante.
Se puede hacer un primer plano y cubrir un paisaje por detrás.
LOS MÁS ANGULARES: Aporta un efecto curvo y puede deformar los rasgos humanos y
las líneas rectas. Aporta radicalidad a las acciones. Aportan espacialidad. Más efectista.
NORMAL O STANDARD: 35 a 50 mm
Registra un ángulo de campo intermedio. Aporta un efecto parecido al que nos da nuestro
ojo. Aspecto natural.
Link para ver efectos
-LENTES OSCUROS VS. LUMINOSOS
-ESFÉRICOS VS. ANAMÓRFICOS
Marcos
Permite hacer foco a distancias muy pequeñas, independientemente de la distancia focal.
Permite realizar Planos Detalle
Hay macros gran angulares, normales y teleobjetivos.
TILT-SHIFT
Creado para hacer controlar la distorsión de la fotografía.
Genera un efecto maqueta o miniatura, bastante efectista.
Puede aportar desenfoque y aberración cromática en los costados.
Accesorios de cámaras
Filtros ND, polarizados, UV.
Trípode. Elemental, que nunca falte! A no ser que se quiera generar un efecto especial, es muy
importante la utilización del trípode, además de que en cine sin ellos no se puede hacer nada, y la
mitad de los accesorios van arriba de eso.
Niveles. De cámara y de trípode. Si hay ambos es mejor, hay un doble control.
Iluminación Apuntes del libro y de la presentación.
Gran parte del impacto de una imagen se debe a la manipulación de la iluminación. En el
cine, la iluminación es algo más que la luz que nos permite ver la acción. Las zonas más
claras y oscuras del fotograma contribuyen a crear la composición global de cada plano y
dirigen nuestra atención hacia determinados objetos y acciones. Una zona brillantemente
iluminada puede atraer la mirada hacia un gesto clave, mientras que una sombra puede
ocultar un detalle o crear suspense sobre lo que puede esconderse ahí.
La iluminación también puede definir texturas: la suave curva de un rostro, las toscas
vetas de un trozo de madera, el delicado trazado de una tela de araña, el brillo del cristal, el
destello de una piedra preciosa... La iluminación da forma a los objetos creando reflejos y
sombras. Un reflejo es una zona de luminosidad relativa en una superficie.
El rostro del hombre de la figura 5.23 y el
contorno de los dedos en la figura 5.24
presentan reflejos.
Los reflejos proporcionan importantes
indicaciones de la textura de la superficie. Si la
superficie es lisa como el cristal o el cromo, los
reflejos tienden a destellar o centellear; una
superficie más tosca, como un revestimiento
de piedra áspero, crea reflejos más difusos.
Hay dos tipos básicos de sombras y ambos
son importantes en la composición fílmica: las
sombras inherentes, o sombreadas, y las
sombras proyectadas. Una sombra inherente
se produce cuando la luz no consigue iluminar
parte de un objeto debido a la forma o las
características de su superficie. Si una persona
está enfrente de una vela en una habitación a
oscuras, algunas zonas del rostro y del cuerpo
quedarán a oscuras. Este fenómeno es el
sombreado, o sombras inherentes. Pero la vela
también proyecta una sombra en la pared que
hay detrás. Esta es una sombra proyectada,
porque el cuerpo bloquea la luz. Las sombras
de la figura 5.23, por ejemplo, son sombras
proyectadas, creadas por las barras situadas
entre el actor y la fuente de luz. Pero en la figura 5.24 las pequeñas manchas oscuras de la
mano son sombras inherentes, ya que las crean las curvas y arrugas tridimensionales de la
propia mano.
Como sugieren estos ejemplos, los reflejos y las sombras contribuyen a configurar nuestra
sensación del espacio de una escena. En la figura 5.23, unas pocas sombras implican toda
una celda de la prisión. Las películas de animación pueden utilizar estas mismas pistas en
un grado u otro.
La iluminación también conforma la
composición global de un plano. En la fig.
5.25 se unifica a los miembros de la banda
gracias a la zona de luz proyectada por una
lámpara sobre sus cabezas. Al mismo tiempo,
establece una escala de importancia, poniendo
de relieve al protagonista al convertirse en la
figura más frontal y más claramente iluminada.
La iluminación también afecta a nuestra
sensación de la forma y la textura de los
objetos descritos. Si se ilumina un balón de
frente, aparecerá redondo. Si el mismo balón se ilumina desde un lado, lo veremos como un
semicírculo. El cortometraje Lemon (1969), de Hollis Fram pton, consiste principalmente en
una luz que se mueve alrededor de un limón, y las movedizas sombras crean diseños de
amarillo y negro que cambian de forma espectacularmente. Esta película casi parece
concebida para corroborar la observación de Josef von Sternberg, uno de los maestros de
la iluminación cinematográfica: «El uso adecuado de la luz puede embellecer y exagerar
cualquier objeto».
Para nuestros fines, podemos aislar cuatro características principales de la
iluminación cinematográfica: cualidad, dirección, fuente y color.
La cualidad hace referencia a la intensidad relativa de la iluminación. La iluminación
«dura» crea sombras claramente definidas, mientras que la iluminación «suave» crea una
luz difusa. En la naturaleza, el sol del mediodía crea una luz dura, mientras que un cielo
nublado crea una luz suave. Los términos son relativos y muchas situaciones de iluminación
se incluirán entre ambos extremos, pero en la práctica podemos reconocer fácilmente las
diferencias.
La iluminación dura crea sombras claras y texturas y contornos definidos. En la figura 5.26,
la madre de Apu y el globo que sostiene quedan subrayados por la iluminación dura. En la
figura 5.27, una iluminación más suave desdibuja los contornos y las texturas y crea una
mayor difusión y un contraste más blando entre los claroscuros.
La dirección de la iluminación en un plano
hace referencia al recorrido de la luz desde
su fuente o fuentes hasta el objeto
iluminado. «Toda luz», escribió von Sternberg,
«tiene un punto donde es más brillante y un
punto hacia el que se dirige para perderse por
completo. El viaje de los rayos desde este
corazón central hasta los lugares de oscuridad
es la aventura y el drama de la luz.» Para
nuestros propósitos, podemos distinguir entre
luz frontal, luz lateral, contraluz, luz
contrapicada y luz cenital. La luz frontal se
puede reconocer por su tendencia a eliminar
las sombras. En Sed de mal, Welles utiliza una
fuerte luz lateral para esculpir los rasgos de los personajes. Nótense las sombras
proyectadas por la nariz, los pómulos y los labios, así como la gran sombra proyectada en la
pared de la izquierda (fig. 5.28).
El contraluz, como sugiere el nombre, procede
de detrás del sujeto filmado. Se puede
posicionar en muchos ángulos; muy por encima
de la figura, en diferentes ángulos a los lados,
apuntando directamente hacia la cámara o
desde abajo. Cuando se utiliza con otras
fuentes de luz, el contraluz tiende a crear
siluetas, como en la figura 5.29. Combinada
con más fuentes de luz frontales, esta técnica
puede crear un contorno discretamente
iluminado.
En la figura 5.30, una estrecha franja de luz
hace que el cuerpo de los actores sobresalga
del fondo. Este uso del contraluz se denomina
luz de contorno.
La luz contrapicada sugiere que la luz procede
de debajo del sujeto. En la fig. 5.31 la luz
contrapicada sugiere un fuego fuera de cuadro.
Puesto que la luz contrapicada tiende a
distorsionar los rasgos, se utiliza a menudo
para crear dramáticos efectos de terror, pero
también puede indicar simplemente una fuente
de luz realista, como una chimenea. Como de
costumbre, una técnica concreta puede funcionar de formas diferentes según el contexto.
La luz cenital se ejemplifica en la figura 5.32.
Aquí la lámpara de luz brilla casi directamente
encima de la cara de Marlene Dietrich. Von
Sternberg utilizaba frecuentemente esta luz
frontal elevada para hacer resaltar la línea de
los pómulos de la estrella. (El ejemplo anterior
de La jungla de asfalto, en la fig. 5.25,
proporciona un ejemplo con menos glamour de
luz cenital.)
Los directores de fotografía también recurren a
tipos de luces direccionales más
especializadas, sobre todo la kicker (una luz trasera situada a un laclo que crea un toque de
luz en la sien o la mejilla de la figura) y la luz de ojos (una luz frontal colocada en la cámara
que añade brillo a los ojos del sujeto).
La iluminación también se puede caracterizar por su fuente. En algunas películas, como los
documentales, el cineasta puede verse obligado a rodar con la luz disponible en el entorno
real. La mayoría de las películas de ficción, sin embargo, utilizan fuentes de luz adicionales
a fin de poder tener un mayor control sobre el aspecto de la imagen. En la mayoría de las
películas de ficción, las lámparas de mesa y las farolas que vemos en la puesta en escena
no son las fuentes de iluminación principales durante el rodaje. Sin embargo, estas fuentes
de luz visibles servirán para motivar las decisiones sobre la iluminación que se toman en la
producción. El cineasta intentará normalmente crear un diseño de la iluminación que sea
compatible con las fuentes del decorado. En la figura 5.33, la ventana trasera y la lámpara
en primer término a la derecha son supuestamente las fuentes de iluminación.
Los directores y los directores de fotografía que manipulan la iluminación de una escena
partirán de la suposición de que todos los objetos requieren, por regla general, dos fuentes
de luz: una luz principal y una luz de relleno. La luz principal es la fuente primaria, la
que proporciona la iluminación dominante y proyecta las sombras más marcadas. La
luz de relleno es menos intensa y «rellena», suaviza o elimina las sombras
proyectadas por la luz principal. Mediante la combinación de la luz principal y la de
relleno, y con la adición de fuentes suplementarias se puede controlar la iluminación con
bastante exactitud.
La fuente de luz principal se puede dirigir hacia el sujeto desde cualquier ángulo, como
indican los ejemplos sobre la dirección de la luz.
Ejemplo:
La figura 5.34 muestra un fotograma de La
rueda (La roue, 1923). El fuerte contraluz se
complementa con una luz principal procedente
del lado izquierdo. Esta proyecta sombras
inherentes en el lado izquierdo del rostro de la
actriz, sobre todo en la nariz y el ojo. La luz de
relleno procede de la derecha, para asegurar
que este lado de su cara no aparezca
completamente oscuro, como sucede en una
parte de la cara en la figura 5.28. La figura 5.35
utiliza un gran número de fuentes y direcciones
de luz. La luz principal que incide sobre las
figuras procede del lado izquierdo, pero es dura
en el rostro de la anciana en primer término y
suave en el rostro del hombre, debido a que hay
una luz de relleno procedente de la derecha.
Los finos contornos de luz en los pliegues del
pañuelo de la mujer indican también un
contraluz.
El cine clásico de Hollywood desarrolló la
costumbre de utilizar al menos tres fuentes
luminosas por plano: la luz principal, la luz de
relleno y el contraluz. La figura 5.36 muestra la
disposición más básica de estas luces sobre una
única figura. El contraluz procede de atrás y de
encima de la figura, la luz principal de frente en
diagonal y la luz de relleno de una posición
cercana a la cámara. La luz principal,
normalmente, estará más cerca de la figura o será
más luminosa que la de relleno. Por lo general,
todo personaje importante de una escena tendrá
su propia luz principal, luz de relleno y contraluz. Si se añade otro actor (como en la figura
de puntos de la fig. 5.36), la luz principal para uno se puede alterar levemente para formar el
contraluz del otro y viceversa, con una luz de relleno a cada lado de la cámara.
En la figura 5.37, el personaje es la figura
más importante, y la iluminación de tres
puntos centra la atención en ella. Un
luminoso contraluz desde la parte posterior
derecha ilumina su pelo y el borde del brazo
izquierdo. La luz principal está a la izquierda,
haciendo que su brazo derecho esté
brillantemente iluminado. Una luz de relleno,
menos luminosa que la luz principal, incide
desde la derecha de la cámara. Esta
iluminación equilibrada crea un leve
sombreado, modelando el rostro de Davis
para sugerir volumen en vez de uniformidad.
(Nótese la leve sombra proyectada por su nariz.) El contraluz y la luz principal de Davis
sirven para iluminar a la mujer que está detrás de ella a la derecha, pero menos
destacadamente. Otra luz de relleno, llamada luz de fondo, incide sobre el decorado y las
personas que se hallan en la parte posterior izquierda.
Ejemplos que se trabajaron en la presentación de clase:
A la hora de exponer mi cámara DEBO
EXPONERLA DE MANERA QUE MI
PERSONAJE ESTÉ BIEN EXPUESTO
(LA EXPOSICIÓN DEL PERSONAJE
ES LA QUE MANDA).
Sonido Apuntes del libro.
En la mayoría de las películas, sentimos la intensa impresión de que las personas y las
cosas descritas simplemente producen el ruido adecuado. Pero en el proceso de producción
de una película, la banda sonora se construye separadamente de las imágenes y puede
ser manipulada de forma independiente. Esto convierte al sonido en un elemento tan
flexible y de tan gran alcance como las demás técnicas cinematográficas. Sin embargo,
quizá sea el sonido la técnica más difícil de estudiar.
Estamos acostumbrados a vivir en un entorno sonoro en su mayor parte invisible. La
primera información sobre la disposición de lo que nos rodea procede de la vista y, por lo
tanto, en la vida cotidiana el sonido es a menudo un simple fondo para nuestra atención
visual. Igualmente, hablamos de «ver» una película y de ser «espectadores», términos que
sugieren que la banda sonora es un factor secundario. Tendemos mucho a considerar al
sonido como un simple acompañamiento de la base real del cine: las imágenes en
movimiento. Además, no podemos parar la película y congelar un instante de sonido,
mientras que sí podemos estudiar un fotograma para examinar la puesta en escena y la
fotografía.
No podemos explicar la banda sonora tan fácilmente como podemos examinar el montaje
de una serie de planos. En el cine, los sonidos y los esquemas que forman son
inapreciables. En este carácter escurridizo radica una parte de la fuerza de esta técnica: el
sonido puede conseguir efectos muy fuertes y aun así pasar bastante inadvertido. Para
estudiar el sonido, tenemos que aprender a escuchar las películas. El sonido también es
una técnica de gran impacto por otras razones.
En primer lugar, crea un modo de percibir diferente. La atención visual puede ir
acompañada de la atención auditiva. Incluso antes de que el sonido grabado se introdujera
en el cine en 1926, el cine «mudo» ya lo había reconocido al utilizar acompañamientos de
orquesta, órgano o piano. Como mínimo, la música llenaba el silencio y proporcionaba al
espectador una experiencia perceptiva más completa. Más significativamente, la obligación
de oír abre la posibilidad de lo que el director soviético Sergei Eisenstein denominó
«sincronización de los sentidos», haciendo que un único ritmo o cualidad expresiva
unifiquen la imagen y el sonido.
En segundo lugar, el sonido puede condicionar de forma activa el modo en que percibimos e
interpretamos la imagen. En una secuencia de Lettre de Sibérie (1958), Chris Marker
demuestra el poder del sonido al alterar nuestra comprensión de las imágenes. Marker
utiliza tres veces el mismo material: un plano de un autobús adelantando a un coche en la
calle de una ciudad, tres planos de trabajadores pavimentando una calle. Sin embargo, en
cada ocasión las imágenes van acompañadas de una banda sonora completamente
diferente. Compárese las tres versiones expuestas en forma de tabla al lado de la secuencia
(tabla 8.1). Las diferencias verbales están puestas de relieve por imágenes idénticas; el
público interpretará las mismas imágenes de forma diferente, dependiendo de la banda
sonora. La secuencia de Lettre de Sibérie demuestra también otra de las ventajas del
sonido. El sonido cinematográfico puede encauzar nuestra atención de forma bastante
específica dentro de la imagen. Cuando el comentarista describe los «autobuses del color
de la sangre», miraremos al autobús y no al coche. Cuando Fred Astaire y Ginger Rogers
están ejecutando un complicado paso de baile, es muy posible que sólo miremos sus
cuerpos, y no a los silenciosos espectadores del club nocturno que los miran. De esta
forma, el sonido puede guiarnos a través de las imagen «indicando» qué cosas mirar.
Esta posibilidad resulta aún más fecunda cuando se considera que la pista sonora de algún
elemento visual puede anticipar ese elemento y dirigir nuestra atención hacia él.
Supongamos que tenemos un primer plano de un hombre en una habitación y que oímos el
sonido de una puerta que se abre. Si el plano siguiente muestra la puerta ahora abierta, la
atención del espectador probablemente se desplace a esa puerta, la fuente del sonido en
off. Pero si el siguiente plano muestra la puerta todavía cerrada, es probable que el
espectador reflexione sobre su interpretación del sonido. (¿Tal vez no se trataba de una
puerta?) De este modo, la banda sonora puede aclarar hechos de la imagen,
contradecirlos o hacerlos ambiguos. En cualquier caso, la banda sonora puede entablar
una relación activa con la banda de imagen. Este ejemplo de la puerta que se abre sugiere
una ventaja del sonido: hace que nos formemos expectativas. Si oímos una puerta
crujiendo, anticipamos que ha entrado alguien en la habitación y que veremos a la persona
en el siguiente plano. Pero si la película se inspira en las convenciones del género de terror,
la cámara puede mantenerse en el hombre, que mira a la puerta lleno de espanto.
Estaríamos así en suspenso hasta la aparición del monstruo, que está fuera de campo. Las
películas de terror y misterio utilizan a menudo el poder del sonido de una fuente invisible
para atraer el interés del espectador, aunque no todos los tipos de películas pueden sacar
ventaja de este aspecto del sonido. Veremos también varios casos en los que el uso del
sonido puede defraudar o modificar las expectativas del espectador. Además, como ha
señalado V. F. Perkins, el sonido trae consigo un nuevo significado del valor del
silencio. «Sólo con el color como fuente disponible podemos considerar el uso de la
fotografía en blanco y negro como el resultado de una decisión artística consciente. Sólo en
el cine sonoro puede utilizar el director el silencio para conseguir un efecto dramático.» En
el contexto del sonido, el silencio adopta una nueva función expresiva.
Una ventaja final: el sonido tiene tantas posibilidades creativas como el montaje. Mediante
el montaje, se pueden unir planos de dos espacios para crear una relación significativa.
Igualmente, el cineasta puede incluir cualquier fenómeno sonoro en un todo. Con la
introducción del cine sonoro, la infinidad de posibilidades visuales se unió a la infinidad de
hechos acústicos.
¿Quién hace todo esto y cómo? La sección sonido la encabeza el sonidista. La principal
responsabilidad del sonidista es grabar los diálogos durante el rodaje. Por lo general,
utilizará un equipo de grabación portátil, varios tipos de micrófonos y una consola
para nivelar y combinar las entradas de los diferentes micrófonos. El sonidista también
intentará registrar los sonidos ambiente cuando los actores no estén hablando. Estos
fragmentos del «ambiente» se insertarán posteriormente para rellenar las pausas de los
diálogos.
El equipo del sonidista incluye: El microfonista, que manipula la jirafa y disimula los
micrófonos inalámbricos de los actores, y el auxiliar de sonido, que coloca otros micrófonos,
extiende los cables de sonido y se encarga de controlar el sonido ambiente.
Algunas producciones tienen un «diseñador de sonido» que se incorpora al proceso durante
la fase de preparación y que, como el diseñador de la producción, planea un «estilo sonoro»
apropiado para toda la película.
El sonido en el cine es de tres tipos: diálogos, música y efectos sonoros.
En ocasiones, un sonido puede traspasar las categorías. Un grito ¿es un diálogo o un efecto
sonoro? ¿Es la música electrónica también un efecto sonoro? Los cineastas han explotado
libremente estas ambigüedades. En Psicosis, cuando una mujer grita, esperamos oír una
voz humana y en vez de ello oímos violines «gritando». No obstante, en la mayoría de los
casos se mantiene la distinción.
Ahora que tenemos cierta idea de las características acústicas básicas, tenemos que
considerar cómo se seleccionan y combinan los diálogos, la música y los efectos
sonoros para que desempeñen funciones concretas dentro de las películas.
La creación de la banda sonora se parece al montaje de las imágenes. Del mismo modo en
que el cineasta puede elegir la mejor imagen de entre varios planos, también puede elegir el
fragmento sonoro más útil. Al igual que se puede mezclar material de fuentes diferentes en
una única banda visual, también se pueden añadir libremente sonidos que no se han
grabado durante el rodaje. Además, del mismo modo que se puede fotografiar un plano en
la positivadora óptica, teñir su color o introducirlo en una imagen compuesta, también se
puede procesar un fragmento de sonido para cambiar sus cualidades acústicas. Y al igual
que el cineasta puede unir o sobreimpresionar imágenes, también puede unir dos sonidos
cualesquiera juntando los dos extremos o colocar uno «sobre» otro (como es el caso del
comentario «sobre» la música).
Aunque normalmente no somos tan conscientes de las manipulaciones de la banda sonora,
ésta requiere tanto control y elección como la imagen. El objetivo inicial, como en el caso de
otras técnicas cinematográficas, es guiar la atención del espectador. Normalmente, esto
quiere decir clarificar y simplificar la banda sonora para que destaque el material importante.
El diálogo, el transmisor de la información de la historia, se graba y reproduce por lo general
con el fin de que tenga la máxima claridad. Las frases importantes no tendrán que competir
con la música o con el ruido de fondo. Los efectos sonoros son normalmente menos
importantes. Proporcionan la sensación global de un entorno realista y apenas se advierten;
sin embargo, si se omitiera, el silencio sería molesto. La música también está subordinada
al diálogo, entrando durante las pausas en los diálogos o efectos. Desde luego, esta
jerarquización no es inalterable. Los efectos sonoros, por lo general, son fundamentales
para las secuencias de acción, mientras que la música puede dominar en las escenas de
baile, secuencias de transición o momentos cargados de emoción dentro del diálogo. Y
algunos cineastas han cambiado la importancia que se ha asignado convencionalmente a
cada tipo de sonido. Luces de ciudad (City Lights, 1930) y Tiempos modernos (Modern
Times, 1935) eliminan el diálogo, dejando que los efectos sonoros y la música destaquen.
Las películas de Jacques Tati y Jean-Marie Straub mantienen el diálogo, pero dan mucha
importancia a los efectos sonoros. Para crear una banda sonora, el cineasta debe
seleccionar sonidos que desempeñarán una función concreta. Para hacer esto,
normalmente el cineasta proporciona un entorno sonoro más claro y simple que el de la vida
de cada día. Generalmente, nuestra percepción filtra los estímulos irrelevantes y mantiene
lo que es más útil en un momento concreto. Mientras leemos esto, estamos prestando
atención a las palabras de la página y (en diferentes grados) ignorando ciertos estímulos
que llegan a nuestros oídos. Pero si cerramos los ojos y escuchamos con atención los
sonidos de nuestro entorno, percibiremos muchos sonidos que no habíamos advertido
anteriormente: voces distantes, pasos, una radio sonando.
Como todo sonidista aficionado sabe, si colocamos un micrófono y un aparato de grabación
en un entorno «tranquilo», todos esos sonidos que normalmente no se perciben se volverán
de repente audibles. El micrófono no es selectivo; al igual que el objetivo de la cámara, no
consigue de forma automática el resultado deseado. Los estudios de sonido, los blindajes
de la cámara que absorben el sonido del motor, los micrófonos direccionales y con
protección, la ingeniería de sonido y el montaje, los archivos de sonidos, todo ello permite a
los cineastas elegir con exactitud aquellos sonidos que requiere la banda sonora. A menos
que un cineasta, en realidad, quiera el sonido ambiente de una escena, el hecho de colocar
simplemente un micrófono mientras se rueda raramente será lo suficientemente selectivo.
Al seleccionar determinados sonidos, el cineasta guía nuestra percepción de la
imagen y la acción. Si empezamos a darnos cuenta de cómo la selección del sonido
condiciona la percepción, también advertiremos que el cineasta utiliza a menudo el sonido
de forma un poco realista, para dirigir nuestra atención a lo que es narrativa o visualmente
importante. Es importante cómo se pueden transformar las cualidades acústicas de un
sonido elegido para un fin concreto. Un personaje que esté hablando, por lo general, sonará
más o menos tan alto en plano general como en primer plano, aunque esto sea una
flagrante violación del realismo. Hoy en día, normalmente se vuelve a procesar el sonido
cinematográfico para conseguir las cualidades precisas que se desean. La «grabación
limpia» del sonido en un espacio no reflector se manipula electrónicamente para conseguir
el efecto deseado. Por ejemplo, la voz de alguien al teléfono se trata habitualmente con
filtros, para que resulte más ronca y apagada. El hecho de encauzar la atención de los
espectadores, pues, depende de seleccionar y organizar sonidos concretos. También
depende de combinarlos. Es útil considerar una banda sonora no como un grupo de
diferentes unidades sonoras, sino como una corriente continuada de información
auditiva. Cada acontecimiento sonoro tiene lugar en un patrón específico. Este patrón
implica vincular los acontecimientos en el tiempo, así como «acomodarlos» en un momento
determinado. Se puede ver fácilmente que la banda sonora ofrece una corriente de
información auditiva al examinar una escena montada según los principios de continuidad
clásicos. Cuando los cineastas montan conversaciones en plano y contra plano, a menudo
utilizan un solapado de diálogos para suavizar el cambio visual de plano.
Formatos
WAV o MP3 (comprimido)
Khz —> estándar 48
Bit/s —> estándar 24 (utilizar máximo posible)
Siempre tener en cuenta:
Lo más cerca de la fuente sonora posible.
Se baja lo mínimo posible la sensibilidad para quitar el sonido ambiente.
Sonido lo más puro posible.
El audio se controla de forma constante, con auriculares. Se verifica que sea puro. Se
verifican los grabadores y sus gráficas.
El promedio debe ser 12 db y nunca se debe llegar a 0 porque satura y se pierde
información. (Al igual que cuando nos pasamos de exposición con las cámaras y quemamos las
fotos).
Clasificación de micrófonos
Cardioides o unidireccionales
Sirven para direccionar el registro de audio. Tienen forma de corazón. Su máxima está en 0
grados, y dos mínimas colaterales, por ejemplo a 120º. Son muy flexibles, tienen muchos
usos, pero si el ambiente no está controlado, puede colarse sonido ambiente.
Omnidireccionales
Te sitúes donde te sitúes tienen la misma capacidad para captar sonidos. Tienen la misma
sensibilidad en todas las direcciones y su diagrama polar es una circunferencia.
Equipamiento
Micrófonos. Elementos para captar el sonido.
Hay distintos tipos.
Micrófono cardioide. Tiene un diagrama
polar con forma de corazón. Esto quiere
decir que capta principalmente hacia donde
dirigimos el micrófono, y también
ligeramente hacia los lados.
En su parte posterior tendría una
sensibilidad mínima. Es decir, se trata de un
micrófono direccional, ya que recoge
principalmente en una dirección. Es
recomendable por ejemplo para documentales, o para grabar eventos. O como micrófono de
ambiente junto a nuestra cámara, para mejorar la calidad del audio. (También están los micros de
estudio, también llamado cardioide por sus sistema, que tienen mejor toma de matices, son los que
se utilizan para radio por ejemplo, no son habitualmente usados en cine pero en caso de urgencia se
pueden utilizar).
Micrófono supercardioide. Siguen un patrón parecido, pero son aún más direccionales. Este tipo
son los que más se utilizan en cine para registrar diálogos. Principalmente porque consiguen aislar el
diálogo de los sonidos que hay alrededor. En España se les suele llamar micrófono de cañón, y en
Latinoamérica se le llama micrófono de caña. También se le conoce por su nombre en inglés, que es
shotgun. (Los micros de cañón, también llamados supercardioides son los mejores porque son
direccionales. No captan sonido ambiente, sirven para las voces en lugares amplios y filtran bien).
Micrófono hipercardioide. Tiene un patrón polar aún más direccional. Tanto, que es más
complicado de usar. Se utiliza más en estudios de grabación de música, para los instrumentos, que
en la grabación de sonido directo de cine.
Micrófono omnidireccional. Recoge sonido en todas las direcciones. Este tipo de patrón polar se
usa en micrófonos ambientales, pero especialmente en micros de corbata o solapa.
Dentro de los micrófonos de corbata (llamados corbateros o lavalier en Latinoamérica), también hay
un amplio abanico de posibilidades. Obviamente los que se usan en cine a nivel profesional son
mucho más sensibles, y son inalámbricos. Y si son inalámbricos, hay que usar un emisor y un
receptor, y deberemos ocultar el emisor y el micrófono dentro del vestuario de los actores.
Micrófono lavalier. Pero si no tenemos mucho presupuesto, o vamos a hacer una simple entrevista,
podemos usar un micrófono de corbata económico o lavalier, conectado a un smartphone, una
grabadora, o a la misma cámara.
(Los de solapa o lavalier, se usan cuando no se puede acceder al lugar donde está el sonido cuando
la persona está muy muy lejos del plano, o cuando no hay espacio físico para ubicar un micro de
estudio, se pueden utilizar para rodaje aunque no son de los más recomendados, pero los hay de
buena calidad).
Otros.
Los micros estereos son los que se usan
para grabar esos sonidos ambientes que se
quieren incorporar luego en una fase de
postproducción.
Los micros de pelo o peluca son los que se
colocan en el pelo para grabaciones de
obras de teatro por ejemplo, porque son los
que menos se ven.
Blink o zeppelin. Es una estructura que absorbe el movimiento y los sonidos cuando estamos
grabando con caña.
Auriculares. Se utilizan para ir escuchando los sonidos que se van reproduciendo.
Soporte.
Dead cats / peluche. Esto es clave para registros en exteriores, no se puede arreglar cosas con la
postproducción, lo mismo de siempre, si se estropea información luego no hay vuelta.
Grabador.
Posición
La posición ideal es arriba apuntando a la cabeza, porque no rebota el sonido.
10 cm alejado de la cara, hacia adelante.
Accesorios extras
Los micros solaperos / corbateros / lavaliers. Son omnidireccional, con poca sensibilidad, y
no necesita energía eléctrica. Se utilizan dependiendo de la situación/encuadre.
Scouting de locaciones
Un scouting de locación no es nada más que conseguir ese lugar donde vayamos a rodar.
Obviamente, no es tan sencillo como salir a buscar y listo, ya que hay ciertos requerimientos que
debemos considerar. En toda producción fotográfica o de vídeo, es necesario buscar una locación
que funcione.
Se aplica para visual, y también para audio. Hay que hacer una revisión de ambiente
sonoro: tráfico, perros, etc. Otra revisión acústica del lugar: eco, por ejemplo, el llamado
reverb, se soluciona con generar una buena absorción del sonido en las paredes. Por último es
necesario ir a la misma hora de la realización del rodaje, previamente.
Un buen link para visualizar y captar algún tips
Descargar