En algún lugar entre “Final Fantasy: The Spirits Within” (2001) y “The Curious Case of Benjamin Button” (2008), los actores virtuales evolucionaron desde muñecos parlantes a los seres digitales que vemos en la actualidad.
Hoy en día, los actores generados por computador son a menudo tan realistas que la audiencia tiene problemas para distinguir entre aquellos que son de carne y hueso, versus los de de fabricación digital.
¿Cómo ha sido posible este cambio tan grande en el nivel de realismo en un período de tiempo tan corto?
El pasado octubre, el vicepresidente de ACM SIGGRAPH, Paul Debevec, trató de responder a esta pregunta en la decimocuarta Conferencia VIEW anual, en Turín, Italia. Su presentación, de poco más de una hora, (video completo más abajo) cubre los últimos avances en este campo, específicamente: iluminación HDRI, obtención de imágenes mediante diferencia de polarización, medición de reflectancia en la piel, pantallas 3D autoestereoscópicas, escaneo de rostros en alta resolución, rigging avanzado de personajes y animación facial enfocada en rendimiento computacional (videojuegos).
Consigue una taza de café y échale un vistazo al siguiente video!
El trabajo de Paul Debevec ha estado centrado en la modelación basada en imágenes, y en técnicas de representación, que comienzan en 1996 con su tesis de doctorado en la University of California, Berkeley, con especialización en imágenes de alto rango dinámico, medición de la reflectancia, animación facial, e iluminación mediante imágenes.
En 2010 recibió un premio de la Scientific and Engineering Academy por su trabajo en los sistemas de reconocimiento facial con arreglos de luces (light stages).
Fuente: SIGGRAPH