Postproducción Audiovisual: Pipeline de VFX y Técnicas de Composición
Enviado por Chuletator online y clasificado en Plástica y Educación Artística
Escrito el en español con un tamaño de 282,54 KB
Introducción a la Postproducción y Composición
La postproducción es un departamento dentro de una producción audiovisual (película, documental, anuncio, etc.). Puede abarcar desde un simple proceso de edición con etalonaje hasta el tratamiento digital de planos, efectos visuales, motion graphics, etc.
1. Composición (Compositing)
Definición: La composición es la combinación de diferentes elementos filmados por separado, integrados en una misma escena. El objetivo es que la escena se perciba como una única localización, con todos los elementos perfectamente integrados. Puede incluir una gran variedad de procesos dependiendo del proyecto. De ella derivan muchas áreas creativas y técnicas. En este curso, veremos tres de ellas: keying, rotoscopia y matchmove.
Algunos de los softwares más utilizados en composición son:
- After Effects: funciona mediante una estructura de capas.
- Nuke Composer: funciona mediante una estructura de nodos.
2. Introducción a la Postproducción
La postproducción es la fase final de la cadena creativa de una producción audiovisual. Desde el punto de vista creativo, comienza incluso antes de que se inicie la producción. Es un proceso que implica la hibridación de numerosos perfiles profesionales y tiene como objetivo la formalización final verosímil de un plano o secuencia. Lo verosímil no es necesariamente lo creíble, sino aquello que tiene una apariencia de verdad. En la ficción, el concepto de verosimilitud puede tener que ver con una mímesis del mundo tal como lo conocemos, o con la creación de imaginarios que se alejan de este.
2.1. Imagen y Cinematografía
¿Qué hace que una imagen resulte cinematográfica?
La cámara tiene la clave de muchos de los elementos que contribuyen a que una imagen sea cinematográfica. Todos estos elementos, que tienen una relación muy directa con la percepción cinética de la imagen, son también relevantes desde el punto de vista más técnico de la postproducción.
- Luz
- Lentes
- Shutter y apertura
- Sensor (sensibilidad)
- Movimiento
- Color (armonía): intentar sintetizar los colores, en lugar de construir una representación con muchos colores, puede generar una mejor sensación y más cinematográfica.
- Composición: la manera en que la cámara nos da la sensación de espacio o nos proporciona información de un espacio concreto.
Todas estas herramientas proporcionan un mood específico y no solo se trabajan a nivel de producción durante la grabación, sino que también tienen relación con la postproducción. Es decir, a veces, alguna de estas herramientas es la que se encarga de terminar de producir un determinado efecto en postproducción.
Lo que hace la postproducción es intentar alinearse con los criterios de producción, más que intentar sorprender en exceso (aunque también puede hacerlo). Del mismo modo, la lente, el instrumento que permite la captación de la imagen en la cámara, contiene una serie de características que afectan drásticamente a la percepción:
- Distorsión
- Aberración cromática
- Viñeta
- Profundidad de campo
- Enfoque/Desenfocado (bokeh)
Estos elementos también se pueden interpretar desde un punto de vista de postproducción, con herramientas que permiten procesar la imagen más allá de lo que la cámara captura.
2.2. Parámetros de la Imagen
Hay otros parámetros que dependen de la construcción de la imagen desde el punto de vista de su digitalización, y que tienen una especial relevancia en el postprocesamiento de esta:
- Profundidad de color: la cantidad de colores que, dentro de un rango dinámico (2n), se pueden representar en una imagen digital. El valor “n” hace referencia al número de bits utilizados para cada canal de color. Se representa en bits. Así, cuanto mayor sea el número de bits, más colores se podrán representar y mayor será el rango dinámico. 8 bits de profundidad de color sería el mínimo de rango suficientemente alto como para poder mostrar las imágenes de forma realista, porque permite representar 256 niveles por cada canal. Sin embargo, 8 bits todavía nos limitan a la hora de manipular la imagen en postproducción.
- Compresión: 4:2:2 es el formato típico. De los tres números, el primero es la luminancia, el segundo un parámetro de cromatismo (Cr porque toma el rojo -red-), y el tercero otro parámetro de cromatismo (Cb porque toma el azul -blue-). El primer número no varía, porque las cámaras nunca reducirán la información de luminosidad de la imagen.
- LOG/RAW/R3D: el LOG es un códec.
2.1. Ventajas (y desventajas) de trabajar con baja compresión
- Más control sobre las operaciones de postproducción.
- Más opciones de revelado de imagen.
- Mayor profundidad de color.
- Mayor peso de los archivos.
- Más recursos de computación necesarios.
2.2. Proxies
- Permiten un mejor flujo de trabajo.
- Se pueden intercambiar en cualquier momento por el material original.
- Aceleran los procesos, sobre todo en la previsualización del trabajo.
- Serán fundamentales para que el ordenador no se sature (a menos que el ordenador tenga la capacidad suficiente).
Más allá de la técnica, un proceso de postproducción tiene el objetivo de crear una conexión directa y emocional con el espectador, mostrar una ficción de forma verosímil y hacer pensar sobre lo que estamos viendo, en lugar de cómo lo estamos viendo.
3. VFX Pipeline
Un pipeline es un diagrama que estructura el orden y la correlación entre todos los departamentos o áreas de una producción. En el caso del trabajo en postproducción de vídeo, un pipeline puede estar diversificado en más o menos líneas, dependiendo del valor y las necesidades de la producción. En un pipeline de VFX se incluyen todos los departamentos que trabajan en la configuración de la postproducción de una pieza, incluyendo áreas como tracking, rigging, texturizado, animación, layout, iluminación, matte painting o composición.
No obstante, el pipeline no solo incluye partes relativas a la postproducción de la pieza, sino que debe comenzar a integrarse con procesos de preproducción y producción para establecer criterios creativos desde el inicio, que serán clave para la correcta gestión del material.
Este diagrama plantea un pipeline general de VFX. Las áreas de composición están presentes prácticamente siempre, al igual que el etalonaje, el layout, el tracking, etc. Se pueden encontrar muchos modelos diferentes de pipeline dependiendo del tipo de producción, pero siempre responderán a las mismas necesidades de establecer la cadena de ensamblaje entre los diferentes procesos de postproducción y VFX.
1. Preproducción
1.1. Storyboard
La primera fase de preproducción en la que la composición tiene una influencia es la de la creación del storyboard. Como elemento fundamental para entender la narrativa visual de la pieza por parte de todos los perfiles integrantes en el proceso, el storyboard es vital para los equipos de postproducción, dado que en muchas ocasiones se debe volver al origen del dibujo para entender cuáles eran las necesidades de la dirección en la construcción y composición de una escena.
El buen diseño de un storyboard debe ser claramente explicativo con la composición del plano, con los movimientos de los elementos y con las perspectivas de cámara, dado que son cuestiones fundamentales para que un artista de postproducción entienda las sensaciones que debe transmitir el cuadro. Que el supervisor de VFX esté presente durante el proceso de preproducción es muy útil porque, a la hora de estar produciendo (grabando) la pieza, se tendrán en cuenta muchas cuestiones (movimiento, iluminación, etc.) que ya se han analizado en el guion y que se pueden llevar a cabo en la producción con un resultado que ya se asemeje a lo deseado, y que los de VFX deberán potenciar.
1.2. I+D
Este departamento técnico aparece en la fase de preproducción para plantear y crear los ingenios técnicos necesarios para plasmar ideas en la pantalla. Es uno de los departamentos más importantes, en tanto que las soluciones concretas a las que llegan suponen, en muchas ocasiones, avances técnicos en la propia industria, aplicables a otras áreas de producción.
1.3. Arte
Junto con la configuración del storyboard, los esbozos de arte son otro factor determinante en preproducción para entender el planteamiento del imaginario estético de una propuesta. Pero no solo eso, son, además, material importante para determinar criterios sobre el punto de vista, las angulaciones, la construcción escénica (puesta en escena) y lumínica del plano, y la composición y profundidad del mismo. Deben estar en constante comunicación con los de VFX también.
2. Producción
2.1. Previs
Se llevan a cabo en el proceso de producción. Los previs son como lo que en animación se conoce como animática (la animación de un storyboard), pero en el caso de una producción cinematográfica. Es una versión en 3D de la película hecha a baja calidad de las escenas para poner las imágenes en movimiento. Es una versión previa de la película. Ayudan a entender angulaciones, puntos de vista, movimientos de cámara, profundidad, iluminación y ritmo de la narración en una versión previa. Los modelados, las texturas y las luces en los previs presentan una creación muy básica, pero sirven como base aprobada por el director y como referencia para la futura postproducción.
Los perfiles de previs son artistas 3D generalistas. Saben modelar, animar, iluminar, texturizar y animar cámaras, controlando todos los aspectos específicos para la construcción de la escena. Su formación tiene más que ver con la velocidad a la hora de producir estos esbozos, que con un conocimiento profundo de cada área.
2.2. LiDAR y foto de referencia
El LiDAR es un escaneo que se utiliza para obtener mallas tridimensionales de puntos de una escenografía, que después deben recrearse en postproducción para generar escenografías virtuales. Dicho rápidamente, es una técnica que hace fotos de espacios para generar espacios virtuales. Es habitual hoy en día. Normalmente es un tipo de técnica que se externaliza y que, actualmente, se lleva a cabo con drones que toman fotografías 360. Con estas se crea una referencia de distancias y medidas. Otra parte importante es la foto de referencia. Dado que la mayoría de sets se deshacen después del rodaje, los artistas de postproducción tendrán la referencia de las imágenes del rodaje como principal fuente de información (sobre todo los artistas de texturas).
3. Postproducción
3.1. Modelado
Los primeros departamentos del pipeline en comenzar con el trabajo de postproducción (si es necesaria la creación de personajes o espacios 3D) son los artistas de modelado. Entornos, edificios, props, armas, personajes, etc. deben ser modelados detalladamente. Incluso actores y actrices acostumbran a tener un modelo digital para ser integrado en aquellas tomas que requieren un uso total del 3D. Estos sirven para elementos como la proyección de sombras o la interacción con elementos que no estaban físicamente en el rodaje (sobre croma). Existen dos perfiles: modeladores orgánicos e inorgánicos. Los primeros se encargan de personajes, monstruos, expresiones faciales, etc. Los segundos, de cualquier elemento no vivo: props, accesorios, armas, elementos de escenografía, etc.
3.2. Rigging y texturas
El departamento de rigging se encarga de crear estructuras y huesos móviles para que los futuros animadores puedan crear las expresiones y movimientos. Los rigs pueden ser muy complejos o sencillos, dependiendo de las necesidades. Son artistas muy técnicos, conocedores del lenguaje de programación necesario para automatizar procesos en la construcción del rig y las opciones de movimiento.
El departamento de texturas es el que dota de realismo a los modelos a través de la creación de materiales. Implica trabajar el realismo a través del aspecto, la iluminación, la refracción e interacción del material con otros elementos de la escena. Para los artistas de texturas es muy necesario el trabajo de fotografía de referencia previo, dado que toman referencias de los elementos reales del rodaje para poder imitarlos lo más fielmente posible. Tienen contacto con el departamento de fotografía (cinematografía), dada la relación directa de los materiales con las cualidades de la luz. Los artistas de rigging no tienen por qué entender de modelado, pero sí que entienden de anatomía. Y no necesariamente lo animan después, porque para eso están los animadores.
3.3. Plates, keying y rotoscopia
El plate es la parte de imagen real salida del rodaje que se utilizará por los artistas de postproducción, el material que llega de la cámara tal cual, los planos. La palabra tiene sus orígenes en la bobina donde se llevaba el material analógico para su reproducción o proyección, en la que las imágenes registradas se transferían a una placa o bobina de celuloide que se usaba en proyectores o máquinas de edición. Este material contiene los fondos en croma que se deberán eliminar, que en ocasiones coinciden con una parte específica del escenario, pero que a veces pueden suponer la casi totalidad de la escena, exceptuando por ejemplo los personajes.
El proceso de sustitución de este material es conocido como keying. En ocasiones se deben eliminar elementos de la imagen que no están expresamente situados sobre croma. Para estos casos se trabaja mediante un proceso llamado rotoscopia. Esta es el proceso de enmascaramiento de una parte de la imagen, frame a frame, para aislarla del resto del contenido. Es un trabajo muy minucioso que, más allá de poder optimizarse gracias a ciertas herramientas, implica un cuidado y control muy concreto sobre el material.
3.4. Tracking y Matchmove
Los procedimientos de tracking y matchmove tienen el objetivo de generar cámaras tridimensionales que imitan los movimientos de la cámara original del set de rodaje. Es lo que permite a los artistas de composición y 3D integrar de forma creíble los elementos digitales en pantalla. Los artistas de matchmove también se encargan de crear un doble digital de los personajes para tener una simulación de las sombras, reflexiones y otras proyecciones que se puedan crear sobre el escenario. Para el layout es fundamental la información de tracking de la cámara. El perfil del artista de tracking es bastante técnico, dado que trabaja con la triangulación de los movimientos, pero también debe ser un gran conocedor del lenguaje de la cámara y la narrativa visual, para entender las características de un movimiento de cámara que, en realidad, se tenga que generar de forma digital.
3.5. Layout
En el proceso de layout se toman todos los elementos anteriormente dispuestos para montar el plano en relación con el eje central de la cámara. Esto incluye que todos los elementos delante de cámara estén en la posición adecuada, que la propia cámara esté correctamente ubicada y que cualquier elemento que se tenga que mover delante de ella lo haga con la velocidad adecuada. El elemento fundamental es la cámara, que en ocasiones necesitará reencuadres, reangulaciones y modificaciones en su composición. Es decir, en esta etapa, llegan todas las partes producidas hasta ahora (plates, materiales con texturas, trackings, keyings, etc.) y lo que se hace es colocarlo todo en la angulación y perspectiva de cámara correspondiente. No es componer. Un layout puede darse sobre el plate, o sobre lo que se conoce como Full CGI, un plano totalmente generado con postproducción y que, por tanto, permite trabajar la cámara de forma libre, sin que esta dependa de una referencia de movimiento real. En muchas ocasiones, una cámara real se debe combinar con una cámara digital, intentando que los cortes no se aprecien.
3.6. Animación y VFX
Los artistas de animación se encargan de la generación de todos los elementos creados mediante CGI. Se hace una división entre artistas 3D y de efectos, que se encargan de efectos como el fuego, explosiones, efectos atmosféricos, elementos dependientes de partículas, etc. Los artistas de VFX tienen un perfil que debe entender a la perfección cómo funcionan las físicas y el movimiento de los elementos visuales y sus interacciones, para generar resultados creíbles en pantalla. Es decir, conocen la animación a nivel de física.
3.7. Iluminación y Matte Painting
Iluminación es un departamento fundamental. De ellos depende el realismo de la escena. Se encargan de la construcción de la iluminación, así como del tratamiento de los materiales reactivos a esta. En composición, la luz es clave para encajar las diferentes partes de la escena de forma lógica. El perfil de matte painting está relacionado con el departamento de arte. Es un tipo de artista que se encarga de crear fondos 2D fotorrealistas que están suficientemente lejos de la acción de cámara como para que se interactúe con ellos. Este departamento también se denomina DMP (Digital Matte Painting). El matte painting es mucho más rápido de generar que el 3D y la posibilidad de crear efectos de parallax entre sus elementos permite generar sensaciones de profundidad en los escenarios. Estos perfiles tienen una alta formación artística y su trabajo facilita mucho la fase final del pipeline: la composición.
3.8. Composición
El departamento de composición es el encargado de combinar todas las capas, producto de los renders de los departamentos anteriores. Desde que el departamento de layout renderiza la llamada cámara final (la cámara que realiza el recorrido de la escena), todos los departamentos se encargan de realizar su trabajo en base a esta perspectiva. Esto da como resultado una serie de capas o “pasos” de postproducción. El departamento de composición unifica de manera imperceptible los materiales previos buscando que tengan el aspecto final de una sola capa (tridimensionalidad construida a partir de la bidimensionalidad del plano). Para crear esta interrelación se juega con distancias, transparencias y posiciones. Los “pasos” son cada uno de los añadidos que se van haciendo a la imagen para componer el frame final, todos conectados con el movimiento de la cámara final. Es decir, los pasos son todas aquellas capas del plano antes de salir en render. Uno de los factores más importantes para cada uno de los perfiles ubicados dentro del pipeline de efectos es el de entender qué tipo de material recibirá y qué tipo de material deberá enviar al siguiente paso del flujo de trabajo. Esto ayuda a un correcto seguimiento y a la optimización del tiempo entre la multitud de perfiles implicados en el proceso de postproducción.
Práctica 1
Caso 1: Extraer cromas simples
. El primer tipo de croma que nos encontramos en el ejercicio responde a los pasos básicos que ya habíamos trabajado en ejemplos anteriores. El orden para saltarlo es el siguiente: Keylight: aplicamos keylight utilizando una vista comparativa entre el material y la composición que nos permita seleccionar un pixel del croma, teniendo visible el resultado. La forma más adecuada es escoger la vista status, y recorrer la capa de la imagen pulsando la tecla alt para encontrar el punto que nos ofreza una buena lectura de las áreas del borde de la imagen (tonos grises en el borde). Con el parámetro screen balance revisamos si, acercando los valores a los canales rojo o azul de la imagen (0 y 100), la herramienta incluye o extrae más áreas del croma. Recordemos que nunca debemos llevar estos valores hasta el extremo, sino jugar con márgenes cercanos (5-95). Por último, utilizamos la opción de screen matte para forzar levemente las opciones de clip black/clip white, nunca con valores elevados que comprometan el resultado y los píxeles del borde del croma. Una vez terminado, comprobamos el croma en las vistas de matte combinado, y si hay una buena limpieza pasamos a la vista de resultado intermedio. Sobre esta vista de resultado podemos aplicar otras herramientas como key cleaner (para el suavizado del borde), o el advanced spill supressor (para la limpieza del residuo de verde sobre la imagen).
Caso 2: Extraer cromas complejos. División del keying. Para el caso en que keylight no sea capaz por sí solo de limpiar correctamente el área interna del sujeto o referencia, respecto al área externa, generaremos el mismo proceso que en el punto anterior, pero subdividiendo el trabajo en dos o más capas (según los problemas que apreciemos en el croma). Una vez hayamos aplicado keylight con los ajustes comentados anteriormente, y sigamos teniendo áreas no rellenas dentro del personaje (recordad que es importante no forzar el clip white para no incluirlas y comprometer el borde), pasaremos a duplicar la capa. Tendremos el mismo keylight aplicado dos veces. En la nomenclatura, llamaremos una de las capas “borde” y a la otra “interior” (o cualquier nomenclatura que nos permita identificarlas). Para ver el efecto de suma de las dos capas, lo más adecuado es observar el canal alpha de la composición. Esto lo hacemos pulsando alt+4. La capa borde será la que tiene aplicado el croma con las características que ya hemos decidido para preservar los bordes. En la capa interior. bajo el efecto del keylight, añadiremos un efecto de retractor simple (ubicado en el grupo de efectos de Matte). el retractor es un efecto que expande o contrae la máscara convirtiéndola en un bloque sólido. Nos servirá para hacer un relleno bruto de la parte interna si le damos un valor alto en positivo. Junto al retractor, podemos añadir un efecto de desenfoque que permita mostrar de manera fluída la transición entre la transparencia de píxeles del borde y los del interior. Hay muchos tipos de efecto de desenfoque, aunque el adecuado en este caso es el desenfoque de canal, que nos permite actuar únicamente sobre el canal de opacidad (alpha), y desenfocar ésta. Puesto que lo que estamos trabajando con keying es una máscara de opacidad, este es el tipo de canal con el que trabajamos. Si es necesario podemos añadir Spill Supressor y/o key cleaner para acabar de corregir.
Caso 3: Extraer cromas complejos. Rotoscopia. En muchas ocasiones nos encontraremos en una situación en la que el material de origen tiene discontinuidades importantes en la luz que ilumina el croma. O símplemente, como ocurre en el caso del mateial proporcorcionado, un plano general incluye distintos matices de luz entre el fondo y el suelo, distintos tipos de refracción, etc. Para estos casos es muy probable que keylight pueda hacer parte del trabajo, pero que se pierda en el intento de corregir otras partes y nos obligue a forzar una pérdida de calidad que no queremos. Para estos casos la solución pasa por rotoscopiar. La corrección de los planos generales del ángel y el demonio pasa por generar los pasos vistos en el apartado anterior para el caso de la parte superior del personaje, y enmascarar en una nueva capa la parte inferior a partir de un proceso de rotoscopia. En Mocka, podemos elegir (según el movimiento que presente el plano), si queremos trackear directamente una máscara detallada, si preferimos trackear primero una máscara bruta y conectar el matte detallado después en otra capa, o si, en función del movimiento y forma de las partes a rotoscopiar, vemos más adecuado generar rotos y máscaras por separado para distintas partes de la zona a aislar (en nuestro caso podrían ser la túnica, y cada uno de los pies). El proceso de roto nos permitirá devolver las máscaras a AE permitiendo ajustar elementos como el calado, e incluso convirtiendo los mattes en máscaras de After que podemos trabajar de forma independiente. Recordemos que el proceso de modificar una máscara de Mocka en After Effects, invalida la posibilidad de continuar generando cambios en la misma desde Mocka, por lo que debería ser la última opción, una vez tengamos un resultado adecuado de la rotoscopia.
Integración de VFX y matching Una vez realizados los cromas, el proceso final pasa por integrar los diferentes resultados sobre los correspondientes fondos. Dividiremos el proceso en varias partes. Paso 1. Corrección a ciegasRecordemos que el proceso de corrección a ciegas implica una corrección de color de la imagen basándonos en los canales de la misma. Podemos intercambiar los canales de color de la imagen con la combinación de teclas alt + 1(canal rojo), 2(canal verde) y 3 (canal azul). El canal sobre el que comenzaremos a hacer la corrección a ciegas es el verde. Haremos la corrección a partir de un efecto de curvas. Seleccionamos el canal verde en las curvas, y visualizamos el canal verde en la imagen. El cometido aquí es hacer que los tonos grises del canal verde del personaje se asemejen a los tonos grises del canal verde del fondo. Con ello, sin tocar estrictamente el color, estaremos acercando las tonalidades de la curva entre ambas imágenes. Una vez acabamos con el canal verde, revisamos el rojo y el azul haciendo lo propio (cambiando también a las curvas del rojo y el azul en el efecto de curvas). En última instancia podemos corregir el canal RGB, ya observando el resultado y aplicando criterios más personales. Paso 2. Añadir efecto de movimiento (wiggle). Uno de los elementos que permite integrar a los personajes en la escena es aplicarles un movimiento. En lugar de generar keyframes para el movimiento en cada plano, lo que haremos será introducir una función “wiggle“, en la posición de las capas que queramos mover. Para introducir código en los parámetros de una capa, debemos pulsar en el icono del cronómetro (keyframes), de la propiedad a animar (en este caso la posición), mientras mantenemos la tecla ALT. En el hueco disponible para introducir texto en la línea de tiempo escribiremos la función; wiggle (x,y), donde x se corresponde con la frecuencia (velocidad a la que se desplazará la capa) e y se corresponde con el desplazamiento (distancia desplazada). En clase hemos planteado un método para hacer que el movimiento del wiggle esté controlado por una capa superior. De esta manera podíamos hacer, a través de código, que el movimiento sea dependiente del tamaño de la capa, y con una sola capa controladora mover el resto de capas. Realizar esta parte es opcional, y siempre puedes controlar el movimiento del wiggle de forma manual para cada capa. Para hacerlo de esta manera creamos una capa de ajuste, y aplicamos dos efectos de Control de Deslizador, que podemos encontrar en el menú de efectos, dentro del grupo de efectos “Controles de expresión“. Llamaremos al primer deslizador “Frecuencia“ y al segundo “Amplitud“. Pulsando con ALT sobre el cronómetro de la posición de cualquiera de las capas que queramos mover, escribiremos “wiggle (,)“ ,Dentro del paréntesis y antes de la coma, vincularemos con la espiral al control de deslizador de la frecuencia. Después de la coma, vinculamos a la escala de la misma capa, y multiplcamos la sentencia obtenida (símbolo *), por el vínculo al control de deslizador de la amplitud. Con ello obtendremos una función que, copiada en el resto de capas de movimiento, nos permitirá controlar el wiggle de todas las capas a través de los valores de la capa de ajuste, ajustando también el movimiento a los valores de escala de cada plano para hacerlo más verosimil.
Paso 3. Añadir el halo al ángel. Para dar un apecto más angelical al personaje del ángel, crearemos un efecto de halo, o brillo alrededor de este. Es un efecto que puede conseguirse de muchas maneras, pero en clase lo hemos visto de la siguiente forma. Duplicamos la capa del ángel sobre la que queramos trabajar. Si esta capa tenía un wiggle, hemos de tener en cuenta que al duplicarse el efecto, se desfasará la posición entre ambas. Para corregirlo debemos eliminar el wiggle de la capa duplicada (ALT clic sobre el cronómetro de la posición), y conectar la capa con la espiral a la original. Es importante pulsar la tecla SHIFT mientras vinculamos, porque de esta manera la capa tomará los mismos valores de posición, escala y rotación de la capa vinculada. Así tendremos las dos capa superpuestas. Una vez solucionado el posicionamiento de la capa que hemos duplicado, seleccionamos para esta un modo de fusión “añadir“ (add) (también podemos probar con otros modos de fusión de aclarar, los de este grupo). Esto hará que la capa se sobreilumina. Añadimos un efecto de desenfoque para crear un efecto de brillo sobre esta capa. Podemos generar una máscara para que el brillo afecte a las zonas específicas del borde (probablemente tengamos que invertirla para ello). El efecto también podría conseguirse situando la capa de brillo debajo de la original, con la diferencia de que el halo sería solo externo en este caso, y no cubriría parte interna del personaje.
Paso 4. Añadir aura al diablo. Para terminar, crearemos el efecto de aura alrededor del diablo, que es ligeramente diferente del anterior. La primera parte del efecto es similar, generando el duplicado de la capa y el desenfoque. En este caso solo añadiremos un efecto de color (tono/saturación, curvas...) para colorear el desenfoque de la capa con un tono rojizo. Para crear el efecto de moviminento del aura vamos a incluir un efecto de desplazamiento llamado “Desplazamiento Turbulento“ (Turbulent Displacement), que está dentro del grupo de efectos “Distorsionar“. Este efecto funciona generando un mapa de puntos que podemos animar, a través del parámetro “Evolución“, para que generen una sensación de movimiento. Para animar la evolución, lo mejor es hacer que el valor de la misma tome números aleatorios. Pulsamos con ALT sobre el cronómetro para añadir cógido y añadimos la función “time“, que sirve para avanzar automáticamente el valor de la propiedad en cuestión. Para hacer más evidente el avance multiplicamos la función por un número específico. El código podría ser, por ejemplo: time*200. Podemos modificar los valores de tamaño y complejidad para obtener el mapa más adecuado para el ejemplo.
PRÀCTICA 2
Tracking Las operaciones de tracking en After Effects pueden llevarse a cabo mediante dos herramientas: el rastreador (tracker), y el plugin Mocka. Las opciones del rastreador nos permiten trabajar varias tipologías de tracking, entre las que hemos visto las siguientes:
Tracking de transformación: permite hacer el seguimiento de un elemento visual en la pantalla. Su funcionamiento se basa en el seguimiento de un punto de rastreo, que viene determinado por un área de influencia y un área de búsqueda. El área de influencia (cuadrado pequeño) debe estar concretada en el elemento que queremos trackear; el área de búsqueda determina el espacio dentro del cual la herramienta intentará hacer la búsqueda del elemento en cuestión. Intentamos siempre que el proceso de tracking sea lo más automatizado posible, evitando una actuación manual sobre los frames. Aun así, en ocasiones es necesario este tipo de intervención directa, si las condiciones del tracking no son lo suficientemente buenas. Un tracking de transformación puede concretarse en relación a distintos parámetros, a saber: posición, rotación y escala. Generalmente trabajamos con el valor de posición, pero dependiendo del desplazamiento del objeto a trackear respecto a cámara, suele ser necesario también guardar informaciones relativas la escala y/o a la rotación. En el caso de escoger para el tracking una lectura de más de una propiedad, tendremos que trabajar con dos puntos de track (y por consiguiente con dos áreas de influencia y de búsqueda). Esto implica complejizar el proceso de tracking, aunque a efectos prácticos la información del track acabará confluyendo en un único objeto de igual forma (el elemento o capa al que vinculemos el tracking como destino). Es importante analizar la imagen que estamos trackeando en su totalidad, tratando de encontrar puntos con un buen contraste que puedan seguirse con facilidad, y que tengan una constancia en su representación a lo largo de toda la imagen. No obstante, es común que la herramienta pierda la referencia del tracking en determinados puntos. En tal caso el rastreador nos permite preservar los frames donde el tracking es exitoso, y trabajar exclusivamente con aquellos en los que no lo es, ya sea cambiando los parámetros de búsqueda,, o realizando una corrección manual de los frames erróneos. Una vez tenemos el tracking definido, el botón de editar destino nos permite seleccionar a qué capa del proyecto de After Effetcs se enviará la información trackeada. Por lo general, en este caso es importante craer una capa que sirva como contenedor de esta información, y que no aplique más cambios visuales sobre la composición. El tipo de capa más adecuada para esta función es el null object (objeto nulo), aunque también es funcional utilizar otros elementos como capas de ajuste. La bueno del null object es que nos permite ver una representación del tracking que sólo se visualizar en las previsualizaciones, sin renderizarse cuando hemos acabado el trabajo. Una vez terminado el tracking de transformación, la información de keyframes para las propiedades seleccionadas se puede enviar a la línea de tiempo (concretamente a la capa seleccionada como destino) pulsando el botón “Aplicar“. Para vincular cualquier elemento al tracking creado simplemente hacemos que dicho elemento (capa) sea un child del objeto nulo (o la capa de referencia que contenga la información del tracking). La opción de emparentar está en el icono de una espiral situado en cada capa de la línea de tiempo.
Trackings de perspectiva (corner pin): el rastreador nos permite generar trackings de perspectiva, aquellos en lo que trackeamos es el movimineto de los cuatro puntos de referencia que representan las esquinas del objeto a trackear. Es un tipo de tracking muy usual cuando referimos a procesos de compositing e integración de elementos en pantalla. Generalmente es un proceso que conviene hacer en Mocka, por la precisión que ofrece en cuanto a la integración de la perspectiva, pero también es factible llevarlo a cabo con el rastreador. Para realizar un corner pin tracking, o tracking de perspectiva, seleccionamos la opción de “Seguir movimiento“, y vamos a la pestaña de “tipo de pista“, para escoger la opción de “Posicionar bordes en paralelo“. Esta opción nos proporcionará cuatro puntos de tracking, con sus respectivas áreas de influencia y búsqueda. Cada uno de ellos debe trackear uno de los puntos de perspectiva del objeto en el que integrar y componer elementos. A diferencia del caso del tracking de transformación, generalmente no escogemos como destino un objeto nulo, sino la capa que deberá integrarse, dado que las coordenadas de posición que definirán la perspectiva deben conectarse directament con las esquinas de dicha capa.
Tracking de cámara 3D: el último tipo de tracking que hemos visto dentro del menú de rastreador, es el tracking de cámara 3D. En este caso la herramienta sigue el movimiento de una cámara real generando una serie de puntos y coordenadas de referencia que generan una cámara digital en la composición. Esta cámara 3D tiene el objetivo de simular la perspectiva del movimiento de cámara real para la integración de elementos en la tridimensionalidad de la escena. Es un proceso automatizado. Una vez generados los puntos podemos establecer un área específica, por triangulación o escogiendo un conjunto de puntos resultantes, sobre la que generar diferentes elementos: textos, capas de ajuste. NOTA: no hemos explorado esta opción demasiado por que la opción de tracking en perspectiva 3D es mucho más óptima a través de MOCHA.
Tracking con MOCKA La alternativa más potente en la generación de trackings con After Effects es MOCKA. Activamos Mocka como un efecto dentro de la capa que queramos trackear. Igual que en el caso de la rotoscopia, mocka nos permite crear máscaras para trackear la información de movimiento y perspectiva de la imagen. Sin embargo, y a diferencia del caso de la roto, los procedimientos de tracking generalmente no requieren de máscaras detalladas para captar la información de movimiento de un plano. Generando una máscara en una capa nueva, podemos trackear adelante y atrás para conseguir los resultados. En ocasiones será necesario revisar partes del tracking o redefinir la posición de las capas, para casos en los que la máscara pueda perder la referencia del movimiento. Es importante tener en cuenta que el icono del engranage activa el procesamiento de la capa, y si este no esta marcado (por defecto lo está) las máscaras no se trackearán. Una vez hemos trackeado la información de la máscara, hay un paso más que llevar a cabo respecto a la rotoscopia: la definición de la denominada “Planar Surface“ (superficie plana). Este elemento se activa con el icono con una S en el menú superior de Mocka, y nos muestra el área de influencia sobre la que se colocarán en perspectiva las capas sobre las que se cargue el tracking. La planar surface no tiene por qué tener específicamente la misma forma de la máscara, y debe quedar definida por la perspectiva en la que queramos integrar los elementos. De hecho, y según la naturaleza de la imagen a trackear, en ocasiones la máscara del tracking puede tener una forma y posicionamiento totalmente diferente a la planar surface (aunque por lo general suelen estar próximas en el espacio para transmitir la misma sensación de perspectiva y movimiento). Con la información del tracking guardada, basta con pulsar sobre el botón de guardar para volver a AE con el tracking registrado.
La información de tracking puede trasladarse a cualquier capa de AE a través del efecto de Mocka. En este caso hay que tener en cuenta que gestionaremos el tracking desde el menú Tracking Data, y no desde la opición Matte desde la que controlábamos las máscaras cuando trabajamos con rotoscopia (aun así hay muchos casos en los que nos interesa trabajar con las opciones de matte que hayamos guardado, para trabajar transparencias y máscaras en la composición). Para cargar la información de un tracking primero seleccionamos la opción “Create Track Data”. Nos pedirá que seleccionemos de qué capa queremos cargar el tracking (puede darse el caso de que hayamos trackeado más de un elemento). Una vez cargada la información, en la parte inferior de este menú tenemos las “Export options“. En este submenú podemos escoger entre exportar como Corner Pin (con o sin desenfoque de movimiento), o como transformación. Generalmente para las integraciones que hacemos de elementos en perspectiva trabajamos con corner pins. En “Layer Export To“ seleccionaremos la capa sobre la que queremos lanzar el tracking, lo que colocará sobre esta las coordenadas trackeadas en Mocka. IMPORTANTE: hay dos elementos que pueden suponer un problema para la correcta aplicación del tracking. Estos son el framerate y la escala de los planos o elementos que deben interactuar. El framerate es un parámetro que deberemos igualar entre planos (aquel en que se toma la información de tracking y aquel en el que se aplica), para que no haya errores en la perspectiva. En el caso de que integremos imágenes, como es el de la práctica, el framerate no es un problema con el que lidiar. La escala sí que supone el problema fundamental a la hora de aplicar el tracking en las imágenes. En caso de que las imágenes que trackeemos sean de mayor o menor tamaño que la composición y convenga introducirlas en el espacio visible y la resolución de esta, tendremos que escalarlas. Si conectamos el tracking a una capa que no está al 100% de su escala, la perspectiva aparecerá deformada. La solución a esta cuestión pasa por hacer los ajustes necesarios en la escala, y posteriormente pre-componer la imagen en una precomposición que sí que contenga la escala original de la composición al 100%. Es importante, en el momento de crear la precomposición, clicar sobre la opción de transferir los atributos a la nueva composición (segunda opción), lo que hará que el atributo de escala pase a seguir en la imagen y no se refleje sobre la nueva compo que hemos generado. Siguiendo este simple proceso, podemos exportar la información del tracking a la capa de la pre-composición sin que genere problemas de matching en la perspectiva. Este procedimiento es el que tendremos que seguir siempre y de forma reiterada para todas las integraciones de la práctica, pero es muy relevante tenerlo en cuenta. Si queremos hacer ajustes en cualquier parámetro de transformación de la capa trackeada a posterior (posiciones, escalas, rotaciones, deformaciones) NO podremos hacerlo sobre los parámetros de transformación directos de la capa, porque el tracking se desvinculará. Para estos procesos siempre incluiremos un efecto “Transformar“ en la capa del grafismo (dentro del grupo de efectos de “Distorsionar”). Si situamos el efecto de “Transformar” por encima del “Posicionar Bordes“ (efecto que contiene la información del tracking), podremos aplicar cualquier ajuste y transformación sin miedo a romper el tracking. El resto de efectos que podamos conjugar para integrar las capas no tienen que guardar una jerarquía específica respecto al “Posicionar bordes”. A continuación, la guía resume los diferentes efectos y opciones que hemos usado para integrar las imágenes dentro de los vídeos, de forma óptima.
PRÀCTICA 3.
Caso 1. Planos exteriores con fondo y personaje Encontraréis entre el material dos planos que responden a estas características. Son los planos en los que el personaje tiene las cuerdas y simula flotar en el aire, ambos en exteriores. El procedimiento para componer estos planos pasa por aislar al personaje de las cuerdas e intercambiar el cielo del video original por cualquiera de las imáganes que tenéis como referencia (u otras que podáis buscar). Para aislar al personaje tenéis dos opciones posibles.(1) Realizar una rotoscopia articulada, lo que implica enmascarar al personaje por partes con la ayuda de Mocka, para dejarlo completamente aislado del resto del plano. Esta opción supone la ventaja de sacar las cuerdas de la ecuación directamente, pero comportan un trabajo extra con el dibujado de las máscaras que os llevará un tiempo. Por comodidad en los procesos posteriores con el plano, es una opción recomendable. Si rotoscopiais al personaje por completo (roto articulada) debéis tener en cuenta algunas cuestiones. La rotoscopia es un proceso en el que vamos a tener que retocar manualmente las máscaras en una buena cantidad de frames. En base a ello, usad Mocka con estrategia e intentando que los trazados más fácilmente trackeables del movimiento los haga el programa. Habrá áreas que inevitablemente tengais que modificar frame a frame, pero es importante que el software pueda hacer parte del trabajo por vosotros. (2) Si no optáis por la opción de la rotoscopia (Mocka no es plato de buen gusto a veces), otra posibilidad es aislar al personaje a través de una combinatoria de efectos para eliminar las cuerdas y de operaciones de keying. Las cuerdas pueden eliminarse utilizando el efecto CC Simple Wire Removal. Este efecto está en el grupo de efectos de “Clave” y básicamente hace el mismo tipo de operación que el “Relleno con Contenido”. En este caso sustituye los píxeles de una línea que escogemos (y animamos) entre dos puntos, en base a la información de color y textura de los píxeles alrededor. Eliminar las cuerdas cercanas al personaje implicará por momentos que este efecto entre en conflico con partes del cuerpo que entren en contacto, lo cual no nos evitará la necesidad de rotoscopiar brevemente máscaras para estas partes (en AE o Mocka). Una vez limpias las cuerdas podemos proceder a usar Keylight en un área enmascarada cercana al personaje (que también tendremos que animar). En este caso usaremos el azul como color de chroma, lo cual no es del todo adecuado por ser una tonalidad que suele encontrarse más en elementos como la ropa. Los parámetros del chroma tendrán que ajustarse bien para no dejar áreas dentro del personaje en alpha. Lo más importante aquí es jugar con el calado de las máscaras y su expansión, para poder buscar una transición suave y lógica entre el vídeo y la imagen que queramos componer como cielo. Una vez encontremos esto, y las máscaras estén bien trackeadas, el único paso para terminar la composición será trackear el movimiento del cielo, para que no sea una imagen estática.
Caso 3. Planos exteriores sin personaje Para el caso de los planos de interior de la nave, la composición se basa en incluir elementos en el monitor que hay tras el personaje. Para poder incluir este material no basta con usar keylight para eliminar el chroma verde de la pantalla. Es necesario trackear tanto el movimiento del plano, como el área específica en la que introduciremos el material, para intentar simular correctamente la perspectiva. Mi consejo aquí es que hagáis dos Mockas. Uno para trackear el movimiento, con una superficie básica. Otro para enmascarar exáctamente el área de la pantalla. El primero lo úsaremos como tracking para la capa de vídeo a integrar; el segundo como máscara para visualizar el vídeo solo en ese área. IMPORTANTE: tened en cuenta como siempre el tema de las escalas a la hora de vincular Mocka a elementos. Si es necesario precomponer para guardar una buena continuidad en el tracking, lo haremmos. Aparte de la integración y el tracking es importante usar Keylight y Spill Supressor para eliminar la contaminación del croma verde sobre la imagen. Respecto a los elementos a integrar, podemos utilizar cualquiera de las composiciones de video que ya hayamos usado e intentaremos introducirla en el espacio de la pantalla. En este caso, y ante las posibles operaciones que podamos hacer sobre la compo a integrar, es importante duplicar en el panel de proyecto la composición que vayamos a usar y cambiarle el nombre. Esto hará que no sea la misma que la original, y que por tanto cualquier cambio que apliquemos a esta versión solamente ocurra aquí, en la nueva copia. Hay efectos que pueden incluirse sobre la imagen, una vez trackeada, para ensuciarla o glitchearla, haciendo que parezca más creíble que se trate de una pantalla. Otra opción es trackear, en lugar de una imagenen concreto, un efecto de nieve en la pantalla. Para ambos casos os dejo un tutorial de cómo crear un efecto de CRT (vídeo analógico), y de cómo crear líneas de nieve en una pantalla (lo tendréis en el campus en el apartado de la práctica). IMPORTANTE: No uniremos el montaje de las secuencias en AE, pues este no es el paso final de los vídeos. El proceso de montaje lo acabaremos haciendo en DaVinci junto a la inclusión del color, y es en DaVinci desde donde escogeremos unas opciones finales de renderizado para el export del vídeo.
Efectos de compositing y matching.
Modos de fusión: uno de los primeros criterios de composición que podemos probar son los modos de fusión. Estos determinan la forma en que una capa se relaciona con las que tiene inmediatamente debajo en la jerarquía de la línea de tiempo. Existen numerosos modos de fusión con diferentes resultados. El grupo de efectos de oscurecimiento (desde “oscurecer” hasta “color más oscuro“ tienen el efecto de cambiar la transparencia de la imagen en relación a áreas más oscuras, al contrario que los modos de luminosidad, desde “añadir“ hasta “Color más claro“. Los modos de fusión nos permiten establecer una correlación visual entre capas, y en ocasiones filtrar las texturas de una capa de vídeo sobre un grafismo, elemento clave para componer. En combinatoria con el valor de opacidad que demos a la capa, son una opción muy viable de integración en diversas ocasiones.
Luma Matte: un mate de luminancia es el efecto de usar una capa como máscara de otra, en relación a los valores de luminosidad de la primera. Generamos un mate de luminancia cuando queremos filtrar la textura propia de un elemento sobre otro. En el caso de la práctica puede ser muy útil si utilizamos los propios vídeos que trackeamos, para duplicarlos, colocarlos encima de los grafismos, y hacerlos mate de luminancia filtrando la textura del vídeo al grafismo. Para generar un mate de luminancia tenemos que seleccionar, en la capa que queramos enmarscarar, la capa que actuará como máscara desde la columna “Mate de seguimiento“. Por defecto esta opción nos generará simplemente una máscara tomando como referencia la capa conectada. Si queremos transformar el mate en un mate de luminancia debemos pulsar sobre el icono con forma de cuadrado que hay al lado del menú de Mate de seguimiento (el mate de luminancia está representado por el símbolo de un sol, como se muestra en la imagen).
Tinción: el efecto de tinción se encuentra en el grupo de corrección de color. Es un efecto de saturación rápido con resultados similares a los que pueden obtenerse con el efecto de tono/saturación. Este efecto simple nos permite modular la intensidad de una capa respecto a otras, con un regulador del porcentaje de tinción a aplicar (de 0 a 100%)
Desenfoques: distintos tipos de desenfoque, como el gaussiano, el direccional o el de cuadro rápido (fast box blur) nos permite aplicar un matching entre el grado de desenfoque del objeto a integrar, y el del material o vídeo de fondo. Todos estos efectos están dentro del grupo de efectos “Desenfocar y enfocar“.
Aplicar granulado / Añadir granulado: El grano es otro de los elementos que pueden servir para integrar imágenes, sobre todo en los casos en los que la nitidez de las capas sea radicalmente distinta. Ambos efectos, junto con otros moduladores de ruido, se encuentran dentro del grupo “Ruido y granulado”. Mientras “Añadir granulado” nos permite generar un grano manualmente a través de los parámetros que integra, “Aplicar granulado” tiene la interesante opción de cargar por defecto la información del grano de otra capa para intentar replicarla en el material sobre el que aplica el efecto. Dentro del parámetro “retorcer“, podemos tocar el valor de intensidad del granulado inicialmente interpretado. Una cuestión importante en este caso es que debemos marcar la opción de “Salida final“ en el modo de visualización, ya que la previsualización solo se aplica a una muestra representativa de la imagen, para ayudar a visualizar la diferencia .
Curvas: como en otros casos, las curvas son posiblemente el más potente editor de color bruto en la imagen. Nos permiten trabajar con los distintos canales, y con ello realizar una corrección a ciegas para equiparar la luminosidad y colorimetría de la imagen.
Niveles: igual que en el caso de las curvas, los niveles son una potente herramienta de corrección de contraste y luminosidad en la imagen. Para el caso del matching, los niveles tienen una interesente aplicación sobre las capas que actúan como mate de luminancia, pues permiten forzar las áreas de visibili- dad de la capa que enmascaran, consiguiendo buenos criterios de verosimilitud en la integración.
Mallas de deformación / CC Cylinder: los efectos de distorsión y perspectiva son necesarios en ocasiones en los que el elemento a componer tiene que ubicarse sobre partes del vídeo en las que se presume un volumen, curvatura o deformación específica. CC Cylinder se encuentra dentro de los efectos de “Perspectiva”, y crea el efecto de envolvente de la capa en torno a un hipotético cilíndro. El parámetro de radio permite adaptar la forma, y en combinacción con un efecto de transformación permite colocar los elementos de manera creible, si la perspecctiva del tracking está lograda. La malla de deformación es un efecto dentro del grupo “distorsionar“, que genera una malla que puede ser deformada de forma manual para crear distorsiones en una capa. Es un efecto que debe usarse con cuidado para no generar distorsiones exageradas, pero útil para integrar a este nivel de buscar el volumen de determinadas formas. Podemos reducir el número de filas y columnas de la malla para adaptarlo al espacio que queremos deformar.
Degradado de 4 colores: cuando se trata de integrar áreas de color, el matching puede ser complejo al trabajar AE con pastillas de color plano, como los sólidos. Para parchear áreas con color, el efecto más óptimo es el degradado de 4 colores, que permite crear degradados complejos y detallados colocando los puntos de nacimiento del degradado y los colores desde los que partirá cada uno.
EXAMEN 2022
1. Qué es un pipeline de VFX... a) La metodología o proceso de trabajo a seguir cuando se lleva a cabo el trabajo de inclusión de efectos digitales en una secuencia previamente compuesta. b) Una planificación inicial de los efectos que contendrá una producción, llevada a cabo durante el proceso de pre-producción de la pieza, en fases como el storyboard y el plan de rodaje. c) Es un diagrama que estructura el orden y correlación entre los departamentos de trabajo que configuran la postproducción de una pieza, incluyendo áreas como el tracking, rigging, texturizado, animación, layout, iluminación, matte painting o composición. d) Un diagrama que explica todos los posibles perfiles profesionales que pueden darse en el campo de los VFX.
2. Cuál de las siguientes afirmaciones es FALSA: a) Los Previs forman parte del proceso de pre-producción de una pieza. b) Un Previs es previo al storyboard, y permite a los departamentos de arte hacerse una idea del ritmo de la planificación para poder producir un story adecuado. c) Las artistas de Previs tienen perfiles de 3D generalistas, sabiendo, modelar, animar, iluminar, texturizar y animar cámaras. d) Un Previs es una versión en 3D a baja calidad de las escenas de la película.
3. En un tracking de movimiento (track motion), los parámetros que pueden trackearse son: a) Posición y rotación. b) Posición, rotación, escala y perspectiva. c) Perspectiva, rotación y escala. d) Posición, rotación y escala.
4. ¿Cuál de las siguientes afirmaciones sobre un objeto nulo es CORRECTA? a) El nulo es un objeto vacío, sin una representación visual en el renderizado de la escena. b) Un objeto nulo contiene propiedades de transformación, tales como posición, rotación, escala y opacidad. c) Un objeto nulo puede servir como capa de destino para un tracking de movimiento. d) Todas las respuestas anteriores son correctas.
5. ¿Qué es una curva de animación? a) Un gráfico que expresa la relación entre la velocidad y el tiempo en que un objeto se mueve en la línea de tiempo. b) Un gráfico compuesto que tiene forma curva en aquellas capas que contienen keyframes, y forma lineal en las que no los contienen. c) Un gráfico que representa de forma visual el cambio de una propiedad en el tiempo, permitiendo con ello suavizar la animación del parámetro en cuestión. d) Un gráfico muestra las curvas y cambios de dirección de un objeto en el espacio de la composición.
6. ¿Cuál de las siguientes afirmaciones es FALSA? a) El tamaño de un sólido siempre será igual a la resolución de la composición que lo contiene. b) Los sólidos son capas propias de AE que sirven como contenedores para efectos c) Un sólido se representa como una capa individual en la línea de tiempo y contiene opciones de transformación, como otras capas. d) Un sólido contiene una información de color que se concreta en el momento en que se crea.
7. En el tracking de perspectiva (perspective corner pin), que utilizamos para integrar escenas en perspectiva dentro de una composición, se registran... a) 1 punto de tracking. b) 2 puntos de tracking c) 4 puntos de tracking d) Un número indefinido de puntos de tracking, en función de la lectura automática que la herramienta de tracking hace de la cámara de la escena.
8. ¿Qué es una rotoscopia? a) Un proceso de lectura automática de la imagen a través del cual el programa genera máscaras sobre los elementos que considera personas u objetos separados de un fondo. b) El proceso mediante el cual se enmascara frame a frame parte de una imagen para aislarla del resto del contenido c) Es el proceso de separación de una figura respecto de un croma, sin utilizar el registro de color, sino a través de máscaras. d) Ninguna de las respuestas anteriores es correcta.
9. ¿Mediante cuál de los siguientes procesos podríamos crear una rotoscopia? a) Mediante la animación frame a frame del trazado de una máscara, adaptando los puntos a la silueta del elemento a rotoscopiar b) Utilizando Mocha para trackear el movimiento de un objeto y posteriormente adaptar la máscara a dicho movimiento. c) Utilizando el pincel de rotoscopia (rotobrush) para generar una roto automática a partir de áreas de contraste seleccionadas. d) Las tres respuestas anteriores son correctas.
10. Entre las herramientas de keying el “supresor de rebase avanzado” (advance spill supressor) sirve para... a) Descontaminar el residuo de color del croma, que haya podido quedar en el borde de una selección. b) Desenfocar y aplicar un calado al borde de una selección para suavizar el croma. c) Forzar el mate negro del vídeo para extraer el color residual con mayor facilidad. d) Extraer únicamente los tonos luminosos de la imagen sin la necesidad de utilizar keylight.
11. ¿Qué es un proceso de corrección de color “a ciegas”? a) Es un proceso en el que damos tres tonos de referencia dentro del efecto de niveles, para que en base a ellos iguale la información RGB entre dos capas de vídeo. b) Es una opción incluida en Lumetri, que genera una corrección automatizada en base a un LUT de entrada de referencia. c) Un proceso de igualado de color que obvia los canales RGB del vídeo centrándose únicamente en el canal alpha d) Es un proceso en el que utilizamos los diferentes canales de color del vídeo para intentar igualar las tonalidades de grises en cada uno de ellos, a través de las curvas de corrección.
12. Cuál de las siguientes afirmaciones sobre las capas de forma es FALSA: a) Las capas de forma pueden importarse de otros entornos nativos de Adobe, como Illustrator o Photoshop. b) Las capas de forma permiten animar sus parámetros de transformación, e incluir distintos tipos de animadores. c) Una capa de forma puede usarse como capa de destino para un tracking. d) Una sola capa de forma puede contener múltiples formas dentro, cada una con sus propiedades de transformación específicas.
13. Los animadores de texto se controlan por un elemento llamado selector. ¿Qué tres tipos de selectores existen? a) De velocidad, rango y expresión. b) De ondulación (wiggle), continuidad y velocidad c) De rango, ondulación (wiggle) y expresión. d) De velocidad, rango y continuidad.
14. ¿Qué es un efecto de parallax? a) Un efecto de brillo conseguido a partir de un sólido o del trazado de una máscara. b) Un efecto de profundidad que se consigue activando la opción 3D de una capa y trabajando con la incidencia de la iluminación sobre esta. c) Un efecto que se crea dibujando varias capas de forma en paralelo, y orientándolas en direcciones diferentes para moverlas. d) La creación de un efecto de profundidad y tridimensionalidad a partir de la separación de capas y el distinto movimiento de estas respecto a una capa.
15. Cuál de las siguientes afirmaciones sobre las luces en AE es CORRECTA. a) Existen cinco tipos de luz en AE: luz de punto, luz cónica, luz cilíndrica, luz paralela y luz ambiente. b) Una luz puede proyectar únicamente la sombra que genera sobre un objeto, si seleccionamos que este solo acepte sombras. c) Es posible seleccionar un degradado como color de una luz. d) Ninguna de las afirmaciones anteriores es CORRECTA.
EXAMEN 2023
1. ¿Cuál de las siguientes afirmaciones sobre los proxies es FALSA?
a) El proxy es una copia a baja resolución de los archivos de vídeo registrados originalmente por la cámara.
b) En After Effect, el proxy se activa automáticamente en el momento en que se configura, y se desactiva únicamente cuando realizamos el render, de forma automática, para exportar a la resolución original.
c) La resolución y el códec específico del proxy pueden determinarse en las opciones de configuración del mismo. d) Los proxies generados con códecs intermedios, tienen una menor compresión, pero preservan mejor las características del plano para su edición.
2. Cuál de las siguientes afirmaciones es FALSA:
a) El departamento de Layout tiene un conocimiento clave sobre la transmisión de narrativa a través de la cámara, su cinematografía.
b) La fase de Layout, es el momento en que se monta el plano con los materiales trabajados por departamentos anteriores, en relación con el eje central de la cámara.
c) El layout es la fase final de composición en el proceso de VFX, restando a posteriori únicamente el etalonaje final del plano.
d) El layout puede hacerse sobre un plate real de rodaje, o sobre un material Full CGI
3. Una imagen de vídeo está compuesta por cuatro canales básicos. ¿Cuáles son?
a) RGB, luminancia, transparencia y contraste.
b) Rojo, Verde, Azul y Negro .
c) RGB, HSB, Log y RAW.
d) Rojo, Verde, Azul y Alpha.
4. ¿Cuáles de los siguientes departamentos del Pipeline de VFX se inician o pertenecen a la parte de preproducción de un proyecto? a) I+D, Previs y Arte
b) I+D, Previs y Fotografía de referencia
c) Arte, Lidar, Layout y Modelado.
d) Ninguna de las respuestas anteriores es correcta.
5. El parámetro Screen Balance de Keylight permite:
a) Forzar los valores de blancos y negros en el croma para discriminar partes de la imagen.
b) Balancear los distintos valores de verde del croma para unificarlos.
c) Comparar el valor de verde escogido con los canales restantes (rojo y azul), para optimizar el keying inicial.
d) Sobreexponer los valores de la pantalla para que las áreas oscuras del croma se balanceen y sean más fáciles de discriminar.
6. En un proceso de corrección a ciegas, ¿Por qué canal de color solemos comenzar a corregir las escalas de grises? a) El rojo. b) El verde. c) El azul. d) Es indiferente.
7. En la herramienta Rastreador de AE, ¿Qué tipos de tracking existen?
a) Trackings de cámara 3D, trackings de objetos y trackings de personas
b) Tracking de cámara 3D, trackings de transformación y trackings de perspectiva.
c) Tracking de movimiento y tracking de estabilizado.
d) Tracking de transformación, tracking de cámara y tracking con Mocka.
8. ¿Cómo podemos generar una rotoscopia?
a) Mediante el rastreador de After Effect, utilizando la opción de seguimiento de máscara que se incluye en los trackings de transformación.
b) Duplicando la capa a rotoscopiar y utilizando un efecto de extraer para aislar, en la capa duplicada, el área que queramos enmascarar.
c) Generando y trackeando máscaras en Mocka, que sigan el movimiento del elemento a seleccionar.
d) Las respuestas a y c son correctas.
9. ¿Cuál de las siguientes afirmaciones sobre la Planar Surface de Mocka es CORRECTA?
a) Puede expandirse a los bordes de la composición para colocar elementos en relación al tamaño de esta.
b) Debe definirse antes de trackear la máscara, para que tome la referencia de dicho tracking.
c) Se rota y se escala proporcionalmente, para no deformar la perspectiva del elemento que queramos trackear.
d) Debe ser del mismo tamaño que la máscara que hemos rotoscopiado.
10. ¿Qué es el blocking en un proceso de tracking en Mocka?
a) Se trata de bloquear fotogramas específicos de una capa que estén dando problemas.
b) Se trata de bloquear las máscaras que no queremos que se procesen cuando trackeamos.
c) Se trata de utilizar una capa de referencia que se superpone a la que estamos trackeando, que ayude a bloquear frames concretos en los que el tracking se pierde.
d) Ninguna de las respuestas anteriores es correcta.
11. ¿Qué dos elementos son susceptibles de generar discontinuidades en la perspectiva y el seguimiento del tracking cuando utilizamos Mocka? a) Posición y perspectiva de las máscaras
b) Escalas y framerates. c) Precomposiciones y formatos de imagen d) Transparencia y máscaras.
12. El retractor simple es: a) Una opción dentro de las opciones Set matte de keylight . b) Un modo de fusión propio de las capas de AE. c) Una capa de forma predeterminada. d) Un efecto de Mate.
13. Para introducir una expresión (código) sobre cualquier propiedad que pueda animarse en After Effects, usamos el siguiente shortcut: a) CMD/CONTROL + Clic (sobre el cronómetro de la propiedad). b) CMD/CONTROL + Clic (sobre la capa). c) ALT/OPC + Clic (sobre el cronómetro de la propiedad). d) ALT/OPC + Clic (sobre la capa).
15. En un efecto de desplazamiento de turbulencia, el movimiento de la turbulencia se puede controlar mediante: a) El nivel. b) El tamaño. c) La complejidad. d) La evolución.