El ARTE DE LA EDICIÓN: “Misión: Imposible – Repercusión”. Entrevista con Eddie Hamilton, ACE.
Cada una de mis tres entrevistas anteriores con Eddie Hamilton, Ace, han sido unas clases maestras épicas de edición de un sujeto que ama hablar sobre su arte y comparte con sus colegas de la industria. Hablamos con Eddie sobre la última película de “Misión: Imposible Repercusión” y también “Kingsman” y su secuela, “Kingsman: El Círculo Dorado”.
Además de estas películas, Eddie también editó “Kick-Ass”, “Kick-Ass 2” y “X-Men: Primera Generación”, trabajando lado a lado con los mejores editores de la industria. En esta edición de “El arte de la Edición”
HULLFISH: Platícame un poco sobre la agenda de esta película.
HAMILTON: El equipo empezó a filmar a principios de abril de 2017 mientras yo estaba terminando Kingsman: The Golden Circle. Así que las primeras ocho semanas, cuando filmaban en Paris, yo trabajaba durante el día en Golden Circle y por las tardes y fines de semana en Mission: Impossible. Estábamos realizando la mezcla de sonido y revisando los VFX de Golden Circle.
Crédito absoluto a mi equipo editorial que siguió a Mission, no hubiera sobrevivido sin su arduo trabajo diario y su buen humor. Fanfarrias para los Primeros Asistentes de Edición: Riccardo Bacigalupo y Tom Coope, los Segundos Asistentes de Edición: Christopher Frith y Ryan Axe, Editor Líder de VFX: Ben Mills, Editor de VFX: Robbie Gibbon y nuestra nueva recluta Hannah Leckey quien se unió como as Aprendiz Editorial. Hay que incluir a nuestro valiente Editor Musical: Cécile Tournesec, y los Editores 3D: Chris Hunter y Michael Cheung que se unieron más tarde, y Nicola Ford nuestra Coordinadora de 3D y Post (ve la foto de abajo). Y más importante nuestra maravillosa Supervisora de Post: Susan Novick.
A finales de mayo, la producción se movió de la Isla del Sur en NuevaZelanda a Queenstown. Christopher Frith y yo viajamos con el equipo, instalamos una sala de edición en una casa rentada e intercambiamos, trabajábamos por la mañana en Mission: Impossible y en las tardes en Kingsman (realizando revisiones remotas de VFX). El resto del equipo se quedó en Londres y nos mandábamos media en MXF y bins de ida y vuelta utilizando Aspera.
Estuvimos en Queenstown por cerca de seis semanas cuando el equipo estuvo filmando predominantemente el tercer acto de la película: Nueva Zelanda doblando para Kashmir en la frontera de India y Pakistán, donde ellos permitieron a Tom volar un helicóptero y hacer algunas tomas increíblemente peligrosas en cámara. Era angustiante estar viendo el pietaje diariamente.

Las dos secuencias IMAX en el filme, la del salto a caída libre y la del helicóptero, fueron tomadas con cámaras Panavision DXL a 8K, principalmente porque son más ligeras que las cámaras de cine y pueden grabar 40 minutos (mucho más tiempo que los rollos de película). El resto de la película se filmó en 35mm anamórfico. Aun cuando el filme se mandaba diario de Nueva Zelanda a Londres para procesarse yo, con un poco de retraso, recibía el media escaneado en MXF. Mientras yo realizaba todas mis selecciones y ensambles con los Quicktimes grabados y transcodificados en el Avid Media Composer. Luego mi equipo sustituirá los clips en los timelines con los dailies escaneados conforme llegaban.
Estuvimos en Nueva Zelanda por ocho semanas luego regresamos a Londres a principios de julio. Filmamos por cerca de seis semanas en Londres, luego un domingo a mediados de agosto, Tom se fracturó el tobillo al hacer un enorme salto entre dos edificios cerca de la Catedral de St. Paul. Increíblemente se levantó y salió corriendo de la toma con todo y tobillo roto (lo podemos ver en la película). Por supuesto, la filmación tuvo que parar mientras se curaba.
Así que el equipo empezó un receso de tres meses y en ese tiempo, Chris McQuarrie y yo nos enfocamos en hacer ajustes finos en las secuencias que ya habían sido filmadas hasta ese punto. Chris tiene una expresión que dice: “ el desastre es una oportunidad para la excelencia”. Él siempre mira el lado positive de las cosas y se mantiene optimista. Utilizamos el tiempo para revisar profundamente el filme y preguntarnos sobre sus fortalezas y como podía mejorar.
Revisamos todas las escenas que faltaban por filmarse y analizamos como sería el tejido que las uniría con el resto. El pedazo más grande era la segunda mitad del segundo acto con diálogos muy complejos y escenas de suspenso, una batalla armada y luego una persecución a pie que debía empezar cuando Tom se rompió el tobillo. Las cámaras empezaron a filmar nuevamente a mediados de noviembre durante la batalla climática en un acantilado en Noruega, luego de regreso a Londres donde terminamos de filmar en febrero.
Yo corría para mantenerme a la par con la cámara en mis ediciones. Terminamos de filmar un domingo y nuestra primera proyección sería el jueves siguiente por la noche para nuestros amigos y familia. Nosotros establecimos nuestra fecha límite para mantener la presión.
(…)
HULLFISH: Una de las cosas de las que hablamos poco en la última entrevista pero que recién mencionaste al iniciar ésta, es el proceso de flujo de trabajo.
HAMILTON: Soy un fuerte creyente en analizar el flujo de trabajo entero de post producción con bastante tiempo antes de que las cámaras empiecen a rodar. En este filme yo quería tratar de trabajar con Ultra High Definition (2160p) en el timeline de Avid. Hay un códec de Avid grandioso llamado DNxHR LB a sólo 144 Megabits por segundo. Esto es únicamente el 20% más que el códec de 1080p DNxHD115, pero obtienes cuatro veces más de resolución y te mal acostumbras muy rápido, creéme, a ver imágenes tan prístinas (¿recuerdas cuando realizamos la transición de SD a HD hace algunos años atrás?). Yo tenía una tv 2160p 65” Panasonic OLED conectada por HDMI a una caja de Avid DNxIQ unida a mi MacPro. El DNxIQ se comportó sin fallas. Es silencioso y eso que estaba atrás de mi escritorio.
Así que hablé con nuestra brillante supervisora de post producción Susan Novick y le pregunté si podíamos escanear todo el negativo de película a 4k en Pinewood Post y luego archivar todos nuestros archivos DPX en un servido gigantesco (y cintas LTO). Estos master clips a 4k se convertirían después en cualquier formato que quisiéramos para Editorial, VFX o DI, lo cual simplificaría todo el flujo de post. Susan accedió y empezamos a trabajar.
El flujo de trabajo diario estuvo así… el celuloide se reveló en Londres en CineLab London, luego se mandó a Pinewood Post muy temprano por la mañana. El escaneo empezaba de inmediato y conforme cada rollo de laboratorio se terminaba de escanear, los archivos DPX resultantes se transcodificaban rápidamente a archivos MXF DNxHD36 1080p con una sóla LUT aplicada. (Los archivos digitales IMAX solo se archivaban y transcodificaban ya que no necesitaban escanearse).
Estos archivos se cargaban en un Media Composer en Pinewood, luego los bins con los archivos MXF de audio y video se subían para nosotros vía Aspera (para este proceso mañanero utilizábamos DNxHD36 para mantener corto el tiempo de carga y descarga). Esto significó que mi equipo podía empezar a preparar los bins y visualizar los dailies (en 1080p) alrededor de las 8am.
Luego, durante la mañana en Pinewood, nuestro colorista de dailies hacía una pasada de color completa en cada toma y un nuevo archivo MXF DNxHR LB 2160p era creado con la corrección aplicada. Esos archivos nos eran enviados en un disco. Nosotros archivábamos el media con contenía un solo LUT en DNxHD 36, copiábamos el media en DNxHR LB al Nexis, y luego reconectábamos (relink) nuestros master clips con la nueva corrección de color a 2160p. Así que, alrededor de la hora del lunch, yo cerraba mis bins con los subclips con una LUT en HD, le daba a mi equipo unos minutos para reconectar y luego reabría todos los bins con unos brillantes subclips apropiadamente corregidos en UHD. Funcionó perfecto.
Pinewood también nos mandaba el CDL (color decision list) para cada clip, el cual existía en nuestro Proyecto de Media Composer y en la base de datos de Filemaker que el equipo de VFX utilizaba.

Para más detalles sobre el timeline, no te pierdas nuestro siguiente blog.
Fluent Image es la compañía que administraba el data y el pipeline en nuestro filme, ellos procesaron cualquier EDL proveniente de la edición, transcodificaron los archivos DPX en su enorme servidor y luego subían los nuevos archivos (usualmente EXRs) directamente a VFX o a DI.
El flujo de trabajo para sonido fue bastante estándar. Para cada toma había BWAV tracks con un canal 1 mezclado. Me gusta trabajar con todos los tracks en el timeline, sé que a mucha gente le gusta que el canal 1 esté subbed out (sustituido) pero yo le pido a mis asistentes que pongan en solo el canal 1 de manera que cuando presiono play, sólo estoy escuchando la mezcla pero el resto de los tracks están presentes en el subclip.
Cuando ensamblo la escena yo establezco todos los tracks de audio de la producción y luego reviso nuevamente, audiciono los isos separadamente y escojo los mejores de forma que yo tengo (lo que yo creo) la mejor escena sonorizarada. Aun cuando la mezcla de producción es muy buena, no hay substituto para crear, con tu arte, tu propio track de diálogos. En esta película yo tenía en mi timeline de Avid seis tracks mono para diálogos, cuatro monos y seis estéreos para efectos y tres estéreos para música.
James Mather (nuestro supervisor de audio) y su equipo de sonido estuvieron en Rogue Nation y ahora estaban de regreso con Fallout. Cada vez que yo ensamblaba una secuencia que necesitaba ayuda detallada de sonido, le mandábamos la secuencia a James y en un día o dos, su equipo nos regresaba stems (colección de fuentes de audio agrupadas o en discreto mezcladas juntas) de armas o llantas o máquinas o rebotes o todo lo demás, y mis asistentes los incluían en mi timeline, luego yo mezclaba 5.1 Conforme refinaba la edición de la secuencia esos stems se cortaban, pegaban, y “trimeaban” y Chris McQ se acostumbró a escuchar los stems que los diseñadores de sonido habían escogido y retroalimentaba de inmediato. Él es muy específico con el paisaje sonoro. Esto significó que cada proyección tenía una gran mezcla de sonido.
Un tip para trabajar con música estéreo en un ambiente 5.1… Yo recomiento ampliamente conseguir el plug-in de Waves llamado UM226 que es RTAS (Real Time AudioSuite) que puedes asignar a tus tracks de música en estéreo en el timeline. Cuando presionas play, UM226 mezcla el estéreo a 5.1 en tiempo real y hace un trabajo fantástico (ve la foto).
(…)
Para leer la entrevista completa accesa al sitio:
Deja una respuesta