Como ya os contamos, del 5 al 8 de Junio, tuvo lugar en Barcelona uno de los eventos más importantes sobre Efectos Visuales, el b'Ars VFX, con un cartel de invitados espectacular. Hoy os presentamos una entrevista con Stefano Giorgetti, Lead Character Developer en 'Maléfica'.
A continuación, podéis leer la interesante entrevista con Stefano acerca de la creación de las alucinantes hadas digitales de 'Maléfica'.
El trabajo realizado por Digital Domain con las hadas de ‘Maléfica’ es espectacular, y nadie diría que son personajes completamente digitales. Sabemos que no habéis seguido el camino habitual para crear estos personajes. ¿Qué puedes contarnos sobre esto? ¿De qué forma se pasó de la captura de movimiento a los personajes finales que hemos visto en la película?
La Supervisora de Efectos Visuales Kelly Port, junto con un talentoso grupo de artistas, animadores y técnicos extraordinarios armaron un flujo de trabajo que permitía pasar de los datos en bruto que se obtenían del rig de captura de interpretación a las animaciones finales, dividiendo el proceso en diferentes etapas. Desde el escaneado de los rasgos faciales del actor, a la captura en el set, el modelado, el rigging y la iluminación, el equipo de Digital Domain fue capaz de procesar los datos en bruto, aprovechando las experiencias previas y la tecnología que se preparó para proyectos como ‘Tron 2’ y ‘Benjamin Button’ y, a partir de ahí, subir el listón de los personajes orgánicos creíbles y fotorrealistas de las películas actuales de VFX.
El uso de rigs faciales que permitían controlar deformaciones que fueran precisas a detalles del nivel de los poros de la piel era fundamental y realmente es un ejemplo de la cantidad de trabajo y la pasión que Digital Domain y su equipo han puesto en este proyecto.
Desde el punto de vista de los efectos de los personajes, significaba añadir esos detalles cruciales después de las etapas de animación, llevando las curvas de movimiento y dejando que los elementos fluyeran con la animación de la misma forma orgánica y natural de la vida real, para añadir el detalle extra con el fin de conseguir la apariencia fotorrealista y muy detallada de las hadas.
Viendo vuestro trabajo en esta película, y otros trabajos previos como el de 'Benjamin Button' ¿Cuáles son las ventajas de no haber utilizado directamente la interpretación de las actrices en los modelos finales? ¿Qué os llevó a tomar este camino?
Bueno, cuando tienes un problema complejo, lo que quieres es dividirlo en partes más pequeñas y etapas más fáciles de resolver y, entonces, trabajar en cada etapa para asegurarte de que está perfecto antes de continuar. Esto te permite depurar, reajustar y mejorar cada pequeño paso a la perfección. También te permite dar cabida a los cambios de última hora que el departamento de diseño de producción pide muy a menudo, incluso en medio de la producción.
Pasar directamente desde la captura de movimiento al rig final habría sido un problema, ya que hubiera sido una solución demasiado rígida, haciendo que la transición entre los actores reales a la versión “hadificada” y su apariencia estilizada de los personajes digitales fuera demasiado engorrosa. Al dividirlo en tantas etapas como fuera posible aportamos la posibilidad de añadir esos detalles cruciales que todos vemos en las imágenes finales.
¿Podrías detallarnos los diferentes pasos por los que pasaba un plano de alguna de las hadas hasta que el plano estaba acabado? ¿Cuáles eran esos pasos o esas estapas y en qué consistían técnicamente?
Desde el punto de vista de efectos de los personajes, el proceso que va desde el arte conceptual a los planos finales se dividió en diferentes pasos agrupados en dos grandes etapas: la primera dedicada al desarrollo de los assets, mientras que la segunda estaba dedicada a la simulación y el render.
Para las hadas eso significaba construir primeros los rigs y los peinados. Los personajes se crearon en una pose de T estática y se probaron en tests de animación puntuales para la aprobación del desarrollo de su apariencia. Una vez que los assets estuvieron acabados entonces tuvieron que ser trasladados al espacio del plano conectando las curvas de animación que venían del departamento de animación. Aunque la primera fase es probablemente la que más tiempo lleva, al tener que pasar por las repetidas aprobaciones del cliente a cada una de las criaturas, también se dedicó a la planificación de cómo se construirían los rigs para que se adaptasen a toda la gama de acciones que iban a realizar los personajes. Teniendo en cuenta que las hadas iban a tener diálogos en primer plano, se necesitaba una atención especial en el aspecto técnico. Los complejos rigs tenían que ser capaces de adaptarse a los requisitos del plano, por ese motivo se crearon diferentes configuraciones base para diferentes escenarios, como volar, caer, estar de pie hablando, etc, etc.
Tuvimos que tener un cuidado especial para Fauna, la más compleja de las 3 criaturas, ya que tenía el pelo rizado y un traje compuesto por pequeñas piezas de vegetación, así que se adoptó una combinación de simulaciones de tela y pelo para obtener el aspecto final. Para el pelo, optamos por la solución de las guías curvas, donde cada grupo de pelo es guiado por curvas animadas, que eran simuladas por separado, y luego se integraban dentro de nuestro sistema de pelo, que generaba proceduralmente el pelo teniendo en cuenta las curvas de entrada.
Da igual lo sólido que sea tu rig de simulación, ya que el flujo de trabajo tiene que permitirte también realizar ajustes después de la simulación para acabar el plano, algo que es necesario casi siempre. Esto permite añadir los detalles en la animación para empatizar y añadir drama a la acción.
El último reto técnico fue renderizar del pelo, que se realizó utilizando una estructura procedural VRay adaptada con la ayuda de los chicos de Chaos Group. El tiempo de render repercutió sin duda en la producción, pero eso era precisamente lo que aportaba el valor añadido.
En b'Ars VFX vas a explicar cómo se generó el pelo de estas pequeñas hadas. La verdad es que es algo espectacular ¿Qué más puedes contarnos? ¿Cómo se genera un pelo tan realista y con unos peinados tan increíbles?
Con el fin de conseguir este tipo de peinados realistas se utilizó una herramienta interna llamada Samson. Es un sistema procedural, basado en nodos que permite crear instancias de primitivas arbitrarias tales como curvas y formas geométricas.Lo usamos para producir, acicalar, animar y renderizar todos los assets que debían tener pelo o cabello en las 3 hadas o duendecillos, además de que también se utilizó en los dobles digitales de Angelina Jolie para sus frecuentes acrobacias y vuelos. Fue necesario mucho trabajo para conseguir una solución completa en el estudio pero, por otro lado, nos dio mucha libertad para poder ajustar la herramienta a las necesidades de la producción. Algo que no siempre es posible con los paquetes generados fuera.
Aunque no todo el mérito es de la herramienta, también teníamos un equipo con mucho talento de artistas y directores técnicos que hicieron esto posible. Sin el esfuerzo de todos, la comprensión mutua y la comunicación constante entre los miembros de los diferentes equipos que trabajaron muchas horas para asegurarse de que se lograra el mejor resultado, nada de esto habría sido posible.
Otra de las cosas que nos ha impresionado de vuestro trabajo en esta película es la cantidad de detalles y capas que tienen los modelos, creemos que incluso hay una capa con la concentración de la sangre bajo la piel de la cara. ¿Cómo se generó? ¿Qué ha sido lo más complicado para hacer que estos personajes digitales tengan una apariencia tan realista?
Sí, el equipo de iluminación utilizó una red de shading del torrente sanguíneo con el fin de añadir un nivel más de realismo a la animación facial. Las características del flujo de sangre es algo que en realidad se percibe inconscientemente por el ojo humano. Se han llevado a cabo algunos estudios fuera y, a través de la plataforma light-stage utilizada para las capturas faciales y la extracción del comportamiento de la piel (realizado con la ayuda del Instituto de tecnología creativa, aquí en Los Ángeles), Digital Domain fue capaz de obtener cómo actúan los flujos de sangre en el rostro. Entonces, utilizando mapas de estrés los iluminadores eran capaces de reproducir y añadir este detalle al render final, obteniendo unos grandes resultados. El torrente sanguíneo añadía un detalle crucial que logró aumentar el nivel de realismo para un problema tan complicado y fascinante como el de Valle Inquietante.
https://www.youtube.com/watch?v=cp2GDaRtO1g
Nota del traductor: El Valle Inquietante, o Uncanny Valley en inglés, es una hipótesis del campo de la robótica y la Animación 3D por ordenador que afirma que cuanto más parecidas se vuelven la apariencia y el comportamiento de las réplicas antropomórficas a un ser humano real, más tienden a causar un rechazo en el observador. La hipótesis original de Mori declara que cuando la apariencia de un robot es más humano, la respuesta emocional de un observador humano al robot se convertiría cada vez más positivo y empático, hasta un punto que la respuesta repentinamente se vuelve una fuerte repugnancia. Sin embargo, cuando la apariencia del robot continua convirtiéndose menos distinguible de la de un ser humano, la respuesta emocional se vuelve positiva una vez más y se va aproximando a niveles de empatía como los que se dan entre humanos. Podéis obtener más información al respecto en la wikipedia.
Al margen de la apariencia de las hadas, suponemos que adaptar la captura de movimiento al tamaño y las proporciones finales, y hacer que funcionaran en los planos, tuvo que ser complicado. ¿Qué retos os encontrasteis en este sentido? ¿Cómo fue el proceso?
Sí, las pequeñas hadas de hecho eran personajes muy detallados que, a menudo, interpretaban diálogos complejos muy cerca de la cámara. Por esa razón tuvimos que aumentar la densidad de los assets con el fin de añadir ese nivel crucial de detalle que la producción había establecido que se debía lograr. Texturas de alta resolución, UVs multi-tile, mallas muy densas y un montón de segmentos para cada hebra de pelo. Lo logramos mediante la optimización de cada una de las etapas que fueron necesarias para entregar esos planos. El pipeline se integró cuidadosamente para permitir que los assets fluyeran adelante y atrás en cada uno de los bloques, y también para moverse con fluidez entre las localizaciones. Un equipo de artistas con mucho talento fue capaz de moverse en este lienzo de gran detalle y logró perfeccionar y subir el listón de lo logrado hasta ahora en personajes realistas.
Estoy muy orgulloso de haber sido parte de este extraordinario equipo de gente y de haber aprendido mucho de ellos.
https://www.youtube.com/watch?v=Q7koXhMQHks
¿Qué te está pareciendo b'Ars VFX? ¿Qué te ha gustado más de este festival?
b'Ars ha sido un evento impresionante! Hablé hace unos meses con su fundador, Felix Balbas, sobre la posibilidad de realizar una conferencia sobre el último trabajo en Digital Domain, y no me lo pensé dos veces. Barcelona es una gran realidad emergente para los VFX, los juegos y los gráficos por ordenador en general, así que no quería dejar pasar esta oportunidad. No podía esperar más de esta primera edición, que creo que ha atraido a tanta gente de todo el mundo y ha puesto a Barcelona y España en el mapa mundial de los VFX.
Lo que más me gustó fue el entusiasmo de los oradores, de los asistentes y de los organizadores. Nos juntamos y dimos lo mejor de nosotros para hacer que esta primera edición de b'Ars fuera una experiencia inolvidable. ¡Creo que lo hemos conseguido!
Realmente espero que esto sea sólo el principio de una realidad duradera para los VFX aquí en Barcelona.
Desde aquí, queremos agradecer a Ferran, a Jonny, y a la gente de b'Ars VFX que hiciera posible esta entrevista. Es fantástico tener eventos como éste en nuestro país y un verdadero placer encontrar a gente tan encantadora e interesada por los Efectos Visuales.
No dejéis de visitar su web en barsvfx.com y, por supuesto, no faltéis a la siguiente edición. ¡Una pasada!
En las siguientes páginas, podéis leer la misma entrevista en Inglés.
Interview with Stefano Giorgetti, Lead Character Developer in 'Maleficent', about the work of Digital Domain creating the digital pixies of the film.
The work done by Digital Domain with pixies is astonishing, and no one would say they are completely digital characters. We know that you have not followed the usual route to create these characters. What can you tell us about this? How it was the way from motion capture to the final characters we've seen in the movie?
VFX supervisor Kelly Port along with an extraordinary talented group of artists, animators and engineers put together a workflow that allowed to go from the raw data coming out from the performance capture rig to the final animations, dividing the process in different stages. From the scanning of the actor's facial features, to on set capture, modelling, rigging and lighting the team ad DD was able to process the raw data, also taking advantage of the previous experiences and technology that was set up for projects such as Tron 2, and Benjamin Button, and from there raise the bar of believable and photo-realistic organic characters found in contemporary VFX releases.
The use of facial rigs that allowed to drive deformations that were accurate to the skin's pore level details was crucial and really exemplifies of the amount of work and passion that has been put by Digital Domain and his team into this project.
From a Character FX stand point meant to add those crucial details after the animation stages, bringing in the motion curves and let the elements follow the animation in and organic and real life natural way, to add the extra detail that build up the photo realistic and high detailed look of the pixies.
Watching your work in this film, and other previous works in films like 'Benjamin Button'. Which are the advantages of not directly using the performance of the actresses in the final models? What led you to take this path?
Well, when you have a complex problem you want to divide it into smaller and easier to solve stage, then work on each stage to make sure it is perfect before moving on. It allows to debug, re-adjust and improve each small steps to perfection. It also allows to accommodate the last minute changes that the production design department very often asks, even in the middle of production. Going directly from motion capture to final rig would have been problematic, as it would have been a too rigid approach, making the transition between the real life actors to the "Pixified" and stylized look of the digital characters too cumbersome. By separating out in as many stages as possible added the ability to add those crucial details that we all see in the final images.
Could you detail us the different steps through it pass a shot with the pixies until the shot was finished? What were those steps or stages and in what they consisted technically?
From the character effects point of view, the process that goes from the concept art to final shots was divided in different steps grouped into 2 main stages: the first one is dedicated to asset development while the second to the simulation and rendering. For the Pixies that meant to first build up rigs and hair grooms. The characters are developed in a static “t-pose” and tested on an eventual animation workouts for look-development approval.Once the assets are finalled then they need to be translated to shot space plugging in the animation curves that come from the animation department
While the first phase is probably the most time consuming as you are going through the iterations of client approvals for each of the creatures, it is also dedicated to the planning as you build you rigs that need to adjust to all the range of actions in which the characters will act. Given that the Pixies were going to deliver close-up dialogues, a special attention on the technical side was needed. The complex rigs needed to be able to adjust to the shot requirements therefore they allowed for different base settings for different scenarios, like flying, tumbling, standing talking etc etc.
Extra care was needed for Thistlewit, the more complex of the 3 creatures, as she had a curly hair style and a costume composed by small bits and pieces of vegetation, so a mix of cloth simulations and fur was adopted to get the final look. For the hair, we went for a guide curve approach, where each clump of hair was driven by animated curves, which were separately simulated, then ingested into our propitiatory hair system, which would procedurally generate the hair given the input curves.
No matter how solid your simulation rig is, the workflow has to allow also for post simulation tweak for shot finalling is almost every time needed. This allows to add the animation details to empathize and add drama to the action.
The last technical challenge was rendering of the hair, which was added using a custom VRay procedural build with the help of the Chaos Group guys. Render time was definitely had an impact on production, but that's exactly where the added value comes from.
In b'Ars VFX you're going to explain how these little pixies hair was generated. The truth is that it's so amazing. What can you tell us about this? How as realistic hair as this is generated and with such amazing hairstyles?
In order to deliver such realistic hairstyles we used an in-house tool called Samson. It is a procedural, node-based system that allows to instance arbitrary primitives such as curves or geometries. We used it to produce, groom, animate and render all of the assets that needed hair or fur in the 3 pixies, plus we also used it for Angiolina Joilie's digi-doubles for her frequent stunts and fly-bys. It required lot of work to deliver a full in-house solution, but on the other hand it gave us a lot of freedom to be able to adjust the tool to the production needs. Something that is not always possible with off-the-shelf packages.
It is not all about the tools though,. we had a very talented team of Artists and Technical directors that made that happen. Without a common effort, mutual understanding and constant communication between the members of the different teams that worked many, many hours to make sure the best result was achieved, none of this would have been possible.
Another thing that impact us about your work in this film is the amount of detail and layers that models have. We believe that there is even a layer with the concentration of blood under the skin of the faces. How was it generated? What was the most difficult making these digital characters have a realistic appearance?
Yes the lighting team used a blood stream shading network in order to add an extra level of realism to the facial animation. The blood stream features is something that is really subconsciously perceived by the human eye. Some studies have been carried out and via the light-stage rig, used for the facial captures and extraction of the skin performances, ( done with the help of Institute of creative technology here in LA) , DD was able to derive how blood streams in the face was performing. Then using stress maps the lighters were able to reproduce and add such detail to the final render, with great results.
https://www.youtube.com/watch?v=cp2GDaRtO1g
The blood stream added a crucial detail that manged to increase the level of realism, on a very complicated and fascinating problem such as the Uncanny Valley.
Besides the look of pixies, we assume that adapting motion capture to final size and proportions models, and make them work on the shots, had to be hard. What challenges you found in this regard? How was the process?
Yes, the Flower Pixies were indeed high detailed characters that were often performing complex dialogues very close to camera. For that reason we had to increase the density of the assets in order to add that crucial level of detail that production had set to achieve. High resolution textures, multi tile UVs, very dense meshes and lots of segments for each hair strands. We achieved it by optimizing each of the stage that were needed to deliver those shots. The pipeline was carefully integrated to allow those asset to flow back and forward each of the block, and also to fluidly move between locations. A talented team of artist was able to move in this high-detail canvases and managed to refine and raise the bar on what have been achieved as far as realistic characters have been drawn until now.
I am so proud of having been part of such an extraordinary team of people and learning so much from them.
https://www.youtube.com/watch?v=Q7koXhMQHks
What do you think about b'Ars VFX? What did you like most of this festival?
b'Ars was such an awesome event! I got contacted by the founder, Felix Balbas few months ago about the possibility of delivering a conference about the latest work at Digital Domain, and I didn't think twice. Barcelona is such an great emerging reality for VFX, games and computer graphics in general that I didntt want to miss this opportunity. I couldn't expect more from this very first edition of the fair, which I think attracted so many people from all over the world and put Barcelona and Spain on the map of the VFX global scope.
What I liked more was the enthusiasm: of the speakers, of the attenders and of the organizers. We all got together and did our best to make of this very first b'Ars edition was a memorable one. and I think we managed!
I really hope that this will be just the very beginning of a long standing reality of VFX right in Barcelona.
Visit the b'Ars VFX official website in barsvfx.com for more information about the event.
0 comentarios :
Publicar un comentario