Juan Cañada, el programador que ofrece píxeles más bonitos gracias a Unreal Engine

El responsable de trazado de rayos en Epic nos desvela por qué la demo técnica The Matrix Awakens realizada con Unreal Engine 5 es tan impactante.
·
Actualizado: 9:10 19/12/2021

Epic Games vive momentos dulces, los ingresos económicos que ha generado Fortnite desde su lanzamiento le han permitido reforzar toda la empresa, sobre todo el equipo que trabaja con Unreal Engine, el motor gráfico utilizado en numerosos juegos y proyectos no relacionados con los videojuegos. La empresa lleva más de un año trabajando en la nueva versión de su motor, Unreal 5, de la que recientemente hemos podido probar la demo The Matrix: Awakens. Entre los ingenieros responsables del motor, en concreto del trazado de rayos y de Lumen está Juan Cañada, con el que hemos hablado para conocer más sobre las novedades que traerá Unreal 5 y esta demo tan especial.

La vocación inicial de Cañada no era la de dedicarse a los videojuegos, sino a las ciencias ambientales "pero al cabo de un par de años, con la mita de la carrera hecha me di cuenta de que me interesaban más las matemáticas y la física, empecé a desarrollar un interés hacia la ingeniería, no tenía claro acabar la carrera y tuve una especie de crisis existencial", nos cuenta a través de videollamada. "Empecé a mirar otras opciones y tampoco tenía claro qué quería hacer, si Matemáticas o Física o Caminos… al final me metí en Ingeniería Industrial que es una carrera muy genérica pero te preparan muy bien por la parte físico-matemática y técnica, que era lo que me gustaba a mí, me interesaba la base científica que había debajo de todo. En los últimos años de carrera me especialicé en energías renovables, en eólicas, en fluidos, cómo las aspas de los molinos se mueven y ahí empecé a meterme en simulación por ordenador. No sales de Industriales aprendiendo a programar bien, pero sí los fundamentos. Programar se puede hacer mucho autodidacta".

Maxwell Render, un motor pionero en el renderizado 3D

Al acabar la carrera se enteró de que había una empresa española, Next Limit Technologies, especializada en simulación de fluidos para efectos especiales que se había encargado, entre otras, de la lava de la película El Señor de los Anillos, y decidió centrarse en programación para efectos visuales. Next Limit no solo trabajaba para el cine, también lo hacía en diseño arquitectónico. Cañada dirigió el equipo de la empresa que desarrolló en 2006 Maxwell Render, un motor de renderizado 3D basado en las leyes de la Física de la luz real famoso todavía hoy por su calidad y realismo muy utilizado por arquitectos y diseñadores. Cañada explica: "Fue prácticamente el primer motor de la nueva generación -ahora son todos así- un path tracer unbiased que no producía artefactos [errores visuales] y que si le dejabas calcular el tiempo suficiente acababa convergiendo a la imagen correcta con materiales muy correctos, lo que ahora se llama phisically based rendering. En ese momento fue bastante revolucionario porque a finales de los 90 y principios de los 2000 para conseguir una imagen realista requería mucho tiempo, aparte de mucha paciencia porque los ordenadores calculaban un solo frame, necesitabas muchos conocimientos, aprender a usar Mental Ray o Renderman, los grandes motores, incluso V-Ray que en esa época era muy complicado de usar".

con Maxwell "modelabas lo que querías, le dabas a un botón y, si tenías la paciencia de esperar a que convergiera la solución, aquello quedaba muy bien. Para mucha gente fue una revelación, no tenían que aprenderse todos los trucos del software sino que podía concentrarse en la parte creativa

Maxwell era más lento que el software mencionado, nos cuenta Cañada, pero a cambio era mucho más sencillo de usar: "modelabas lo que querías, le dabas a un botón y, si tenías la paciencia de esperar a que convergiera la solución, aquello quedaba muy bien. Para mucha gente fue una revelación, no tenían que aprenderse todos los trucos del software sino que podía concentrarse en la parte creativa, en hacer un modelo interesante, le ponía las luces, la cámara, y ya, me olvido de todo lo demás. Con el tiempo todos los motores de rénder fueron hacia ahí y ahora prácticamente todos son así. Prácticamente todas las películas empezaron a utilizar ray tracing y path tracing"

'The Matrix: Awakens' muestra un nivel de detalle inimaginable hasta ahora.
'The Matrix: Awakens' muestra un nivel de detalle inimaginable hasta ahora.

Estas nuevas tecnologías aportaban más realismo al cine, pero los cálculos eran tan complejos que se necesitaban a veces horas para renderizar cada frame de la película, "yo ahora estoy más desenchufado de las películas, pero esto todavía sucede, las últimas de Avengers tenían planos que tardaban 100 o 150 horas por frame, pero no toda la película es así y tienen granjas muy grandes, pero en alguna cosa concreta con motion blur y un montón de geometría y todo tipo de cosas extrañas los tiempos de render se seguían disparando", aclara Cañada.

Maxwell se vendió desde el principio licenciado -todavía se sigue comercializando- y se usaba sobre todo para arquitectura, automoción… para ver cómo quedarían productos como un coche antes de construirlo, para películas e incluso para diseñar lentes o luminarias de vehículos, "era como un laboratorio de luz y marcó bastante el camino de hacia dónde irían los motores de render a partir de 2010 o incluso de 2020 porque ahora se utiliza ray tracing en todos lados", dice Cañada. Haber trabajado casi 15 años en esa tecnología que ha ido cobrando presencia los últimos años es lo que le llevó a los videojuegos, que hasta hace un lustro no podían aspirar al trazado de rayos porque necesitan renderizado en tiempo real, pero en 2017 ya fue posible y es cuando Epic llamó a su puerta para que se uniese al inmenso equipo de ingenieros de Unreal, "me apetecía mucho un cambio de aires, no total porque hay similitudes entre desarrollar un motor de renders para películas y un motor de renders para videojuegos", afirma.

Antes de cambiar España por Estados Unidos como lugar de residencia, Cañada se adentró en otra de las grandes tendencias actuales, big data y visualización de datos, un área que, dice, "me resultaba muy interesante. Me interesó tanto que acabé trabajando como consultor para varias empresas y profesor en algunas escuelas de negocios en visualización de datos, pero luego volví a lo que me gusta a mí, que es hacer píxeles bonitos".

Cuando Epic comenzó a ingresar mucho dinero con Fortnite

Recibió varias ofertas y se decidió por la de Epic, la empresa creadora del motor Unreal, que se utiliza para los juegos de la empresa como Fortnite o Rocket League además de licenciarse para todo tipo de videojuegos, desde trabajos de estudiantes a superproducciones. "Había otras ofertas de empresas más grandes que a priori podían tener mejor pinta pero por una serie de motivos técnicos, de intuición o incluso familiares porque Epic está en la costa Este y está más cerca de España, hay menos diferencia horaria, acabé ahí", recuerda. Cañada llegó poco después del lanzamiento de Fortnite, justo cuando Epic comenzaba a ingresar mucho dinero con el juego que ha arrasado los últimos años, y la empresa ha invertido parte de ese dinero en mejorar Unreal, que, informa Cañada, "se ha multiplicado en tamaño, potencia, talento… se ha contratado a mucha gente".

Juan Cañada, el programador que ofrece píxeles más bonitos gracias a Unreal Engine Imagen 2

El motor de Epic no solo se utiliza para videojuegos, hay otras empresas como estudios de arquitectura, de productos para medicina o automoción que emplean Unreal para sus simulaciones y, una técnica que ha comenzado hace poco pero está experimentando un auge increíble gracias a series como El Mandaloriano y que consiste en proyectar imágenes en pantallas videwall para mostrar efectos especiales durante una producción audiovisual, sin necesidad de postprocesado.

El equipo de Unreal es muy grande, pero también deben cubrir numerosos frentes: atender a los problemas que se presenten a ese amplio abanico de desarrolladores a solucionar errores, ir mejorando las características del motor o trabajar en una nueva versión, "nos llegan balas por todos lados", describe Cañada. El año que viene está previsto que salga Unreal Engine 5, que ya utilizan juegos como el propio Fortnite de Epic o Hellblade 2 (según confirmó el mismo responsable de Xbox, Phil Spencer) y del que ya se han visto algunas de las características más importantes primero en una demo técnica en mayo del año pasado, otra en mayo de este año. Entre medias hemos visto todo tipo de recreaciones virtuales, desde el perro de un desarrollador con 10.000 millones de polígonos o un bosque a cómo se verían The Elder Scrolls V: Skyrim, The Legend of Zelda: Ocarina of Time Bioshock o Counter-Strike: Global Offensive. La última demostración del motor, y que ha causado sensación, ha sido The Matrix Awakens: An Unreal Engine 5 Experience, en la que también se puede explorar el mundo de la película dirigida por Lana Wachowski con una calidad gráfica inimaginable hace unas semanas para un escenario de mundo abierto tan grande.

'The Matrix: Awakens' muestra un mundo abierto de 4x4 Km2.
'The Matrix: Awakens' muestra un mundo abierto de 4x4 Km2.

Unreal es lo suficientemente genérico para servir a una cantidad de objetivos tan diversa "y tenemos a mucha gente muy buena, cualquiera que lea papers o libros ve que en Epic hay mucha gente que ha hecho grandes contribuciones a computer graphics. Gracias a mucho talento, mucho trabajo y mucha motivación podemos servir a mucha gente a la vez", nos dice Cañada. El código de Unreal es libre, está en GitHub, "lo que nos facilita mucho las cosas porque hay una transparencia total y cuando hay un problema el cliente puede arreglarlo si tiene la capacidad o puedes decirle ‘el problema está aquí y este mes no lo podemos arreglar pero si tú lo cambias podemos integrar el arreglo en el tronco principal de código’. Que sea código fuente abierto nos permite esta tarea titánica de llevar tantas cosas a la vez porque somos un equipo grande, pero no tanto si mides la cantidad de industrias y los clientes grandes y pequeños que cubrimos", afirma Cañada. Los centenares de ingenieros que trabajan en Unreal se dividen en grupos más pequeños y él dirige al que se encarga del trazado de rayos y de Lumen, la iluminación en tiempo real que es una de las grandes innovaciones de Unreal 5, así que preguntamos a Cañada por estas novedades que ya se pueden ver.

Juan Cañada, el programador que ofrece píxeles más bonitos gracias a Unreal Engine Imagen 3

Nanite, un avance para los artistas al desarrollar videojuegos

Desde que comenzaron los juegos en 3D se comenzó a hablar de la cantidad de polígonos que se movían en pantalla, hasta que llegó un momento en que eran tantos que ni compensaba mencionar el dato. La tecnología de renderizado de polígonos en tiempo real Nanite supera a todo lo existente y supone un gran avance a la hora de desarrollar videojuegos para los artistas. Según explica Cañada, "hasta ahora, la única manera de meter billones americanos -miles de millones-… aunque también dentro de poco billones españoles, millones de millones, era en render offline, renderizando con una granja gigante que tardan horas en cada frame, pero en un videojuego a 30, 60 o más frames por segundo tienes unas limitaciones muchísimo más fuertes. Nanite las rompe, tiene un sistema de geometría virtual que en tiempo real con procesos de streaming muy desarrollados sabe qué partes de la geometría son más importantes para lo que está viendo la cámara y las recoge con la mayor precisión posible sin que el usuario [el artista o el desarrollador que maneje Unreal] tenga que trabajar lo que se llama level of detail, tú haces distintas versiones de tu geometría, con diferentes números de polígonos, y vas cargando una u otra en función de lo lejos que estás del objeto. Si tienes un guerrero necesita renderizarlo con mucha precisión, a lo mejor un millón de polígonos, cuando está cerca de la cámara, pero cuando está lejos es un gasto importante de memoria y rendimiento y el artista necesita hacer otra versión de ese guerrero que tenga a lo mejor medio millón y, si está más lejos, otra que tenga la mitad… al final haces un montón de objetos distintos del mismo guerrero y para el artista es un infierno, porque tienes que mantenerlos todos ellos y tienes problemas de materiales, de texturizado… y nunca es perfecto porque puedes ajustar la cámara en un sitio en el que los niveles de detalle nunca son suficientes o, de repente, se ven los polígonos. Eso solo para un guerrero. Nanite se olvida de todo eso, el artista solo modela un guerrero con la máxima resolución que quiera, 25 millones de polígonos, y Nanite, por debajo, se encarga en tiempo real de convertir eso en una geometría que se ve perfecta. Es una revolución bastante importante porque permite que en tiempo real se puedan tener tantos polígonos como en una película".

"El artista solo modela un guerrero con la máxima resolución que quiera, 25 millones de polígonos, y Nanite, por debajo, se encarga en tiempo real de convertir eso en una geometría que se ve perfecta"

Si a esto unimos Quixel, la librería de objetos del mundo escaneados en 3D de Epic, el resultado es un mundo tan detallado como el de The Matrix Awakens que se puede construir incluso sin tener conocimientos de modelado. "No voy a lanzar el mensaje equivocado de que te haces un juego en tres clics, pero es increíble cómo ha cambiado esto. Igual que pasó en las películas hace tiempo, que en El Señor de los Anillos solo Weta y ILM podían hacer ese tipo de películas y ahora hay estudios de 15 personas que hacen trabajos de esa calidad o más y con el videojuego está pasando lo mismo, un AAA lleno de niveles y modelos sigue necesitando mucha gente pero cada vez es más fácil hacer videojuegos con equipos pequeños y uno de los grandes objetivos que tenemos es poner en manos de la gente herramientas que con muchísimo menos esfuerzo les permitan esos resultados", explica Cañada. Nanite puede ser al arte lo que Blueprints a la programación, una manera de facilitar el trabajo a quienes no disponen de muchos medios.

Lumen, un sistema de iluminación en el que los objetos interactúan

El equipo de Cañada se encarga de Lumen, un nuevo sistema de iluminación dinámica global, lo que quiere decir que todos los objetos que hay en pantalla interactúan con todos, como sucede en la vida real. Si dos muros están unidos de forma perpendicular, dice Cañada, el color de uno influye en el otro, y si hay un espejo se refleja lo que hay enfrentes. Hasta ahora los videojuegos utilizaban iluminación local en la "que intentas pintar un píxel como buenamente puedas, mirando los objetos que hay alrededor y ya está, pero costaba mucho que unos objetos interactuaran con otros. Cosas tan sencillas como una reflexión, que en la naturaleza está por todos lados, como un espejo, era muy costoso y se hacía con técnicas que no eran perfectas, como screen space reflections (reflexiones en espacio de pantallas) que en cuanto giras un poco la cámara desaparecen y que lo que tienes detrás de la cámara no lo refleja… no da la calidad que quieres; de hecho, Fortnite tenía ese tipo de reflexiones hasta que le metimos ray tracing", explica Cañada.

Con la iluminación global, cuando la luz entra en una habitación la luz rebota en el suelo y en las paredes como en la vida real y, explica Cañada, "puedes tener una habitación iluminada solo por la luz que entra por la ventana. Eso en un videojuego era prácticamente imposible porque solo los píxeles iluminados por esa luz eran capaces de iluminar, no había algoritmos para propagar esa iluminación de unos objetos a otros en tiempo real. Lo que se ha hecho toda la vida es hacer pequeñas ñapas que más o menos han funcionado pero que requieren mucho trabajo del usuario como esconder luces dentro de la escena para simular iluminación indirecta o lo que se llama cocinar, baking, que es precalcular la iluminación y plancharla en texturas que se pegan a los objetos, pero esto requiere una cantidad de trabajo enorme, genera muchos artefactos porque tienes problemas de texturizado en esos objetos, el workflow es infernal porque tienes que calcular la iluminación y pegarla y tiene un problema fundamental que hasta ahora no era importante pero ahora sí lo es y que es cómo precalculas la iluminación en un juego open world de 10 km. de largo. No hay manera, no tienes suficiente espacio en disco ni tienes tiempo y cada vez que cambias algo tienes que recalcular otra vez, es imposible. Había que pasar a otro paradigma y es que se haga iluminación global en tiempo real, de forma dinámica de forma que tú no precalculas nada y todo responde a cambios que ocurren en ese momento y si pasa un personaje delante de un espejo se ve su reflejo y si el sol se mueve, también se ve reflejado sin que haya precálculos".

Juan Cañada, el programador que ofrece píxeles más bonitos gracias a Unreal Engine Imagen 4

Cañada reconoce que "todavía nos queda mucho por hacer" en esta tecnología "pero ya sirve para muchas cosas y empieza a haber muchos usuarios porque desde hace casi un año hay una versión de Unreal 5 disponible en early access y estamos muy contentos, creemos que por aquí va a ir el futuro de los videojuegos. Les facilita el diseño a los artistas porque iluminar es mucho más fácil y no se necesitan granjas grandes para recalcular y hacer baking". Las demos que ha mostrado Epic con Unreal 5 utilizan ya esta técnica y no hay nada precocinado.

Lumen no quiere decir que ya no haya trabajo de iluminación; Cañada explica que lo que sí siguen teniendo que hacer los artistas es aplicar los materiales a cada objeto para que el motor sepa cómo debe reflejar la luz, "pero las librerías que tenemos ahora nos permiten liberar parte de este trabajo", matiza.

Herramientas colaborativas

Otra de las novedades que traerá Unreal Engine bajo el brazo es el concepto de capas de datos (data layers, otra herramienta pensada para juegos muy grandes de mundo abierto. Nos dice Cañada: "de eso sé mucho menos, te puedo contar por encima. En open worlds lo normal es que tengas equipos con mucha gente trabajando a la vez y necesitamos crear herramientas colaborativas que permitan que esos equipos no colisionen entre ellos, que si tú estás trabajando en hacer edificios y otra persona en las luces y tú mueves todos los edificios y las luces se quedan donde estaban, se plantean problemas. Entre las cosas que hemos hecho en Unreal Engine 5 es lo que se llama ‘un archivo para cada asset’ para maximizar la colaboración, de manera que cuando alguien toca algo, por ejemplo, todos los semáforos del videojuego o todos los sonidos, el resto del equipo que se dedica recibe esa información y puede actuar en consecuencia, todo se recalcula de manera que no haya sorpresas".

"Lumen ya sirve para muchas cosas y empieza a haber muchos usuarios porque desde hace casi un año hay una versión de Unreal 5 disponible en early access y estamos muy contentos, creemos que por aquí va a ir el futuro de los videojuegos"

Data layers no solo está pensado para equipos grandes, sino para proyectos en los que intervienen varias empresas. Cañada pone como ejemplo que en el tráiler de Matrix: Awakens han colaborado con Epic empresas externas como SideFX, los creadores de Houdini, e incluso para estudios más pequeños son útiles estas herramientas "porque lo normal, hoy día, es que trabajen desde casa, en remoto, y a veces en distintos países, y uno toca un asset que ya ha tocado otro y puede que uno sobreescriba el trabajo del otro por accidente. Hay que trabajar en herramientas que ayuden al workflow [flujo de trabajo]".

Unreal 5 también incluye innovaciones en el sonido de los videojuegos con Metasound, un sistema de generación de sonidos. En la demo de Matrix, indica Cañada, "cuando chocan unos coches con otros no son sonidos pregrabados, de que haya sonido de dos coches chocando, se da al play y ya. Las cosas ya no funcionan así, en tiempo real se sintetiza un sonido" con distintos tipos de síntesis y el resultado es mucho más acorde a lo que se ve en pantalla; no suena igual un alcance que un golpe frontal e incluso es diferente que el accidente se produzca en una calle amplia o cerca de un edificio por cómo rebota el sonido en aquello que está cerca, "una síntesis supercompleja de sonidos en tiempo real que te permite tener una experiencia más inmersiva porque está más acorde con lo que tú vives en la realidad. Y se ha hecho solo, el sistema de sonido ha entendido que ha habido un accidente de coches o unas personas gritando, no son sonidos pregrabados, muy por encima. Eso lo sé porque me interesa el sonido, pero no he escrito ni una línea de sonido en Unreal Engine", puntualiza.

Para los estudios puede ser una pesadilla cambiar de versión del juego, pero Cañada informa de que en Epic se han propuesto que no sea complicado dar el paso de Unreal 4 a Unreal 5, que los estudios pudieran migrar sus proyectos sin un gran esfuerzo y, dice, "creemos que lo hemos conseguido porque Unreal 5 es un superconjunto de Unreal 4, no hemos matado ninguna característica, no te obligamos a cortar nada, a que el sistema de iluminación antiguo tengas que moverlo a Lumen, te puedes mover a Unreal 5 y empezar a hacer uso de algunas de las características nuevas pero la iluminación antigua sigue funcionando. Si quieres luego pasar tu level of detail a Nanite ya le puedes echar el tiempo que quieras, pero tu juego funciona en Unreal 5 con poco esfuerzo. La prueba viviente es Fortnite, acabamos de lanzar la primera versión con Unreal 5, la están usando millones de usuarios y funciona muy bien. Todavía no utiliza muchas de las características nuevas pero ya funciona en Unreal 5 sin grandes dramas, y eso es lo que queremos todos. Por supuesto, también hay estudios que desde el primer día que vieron Lumen y Nanite pues ya empezaron a hacer videojuegos nuevos intentando sacar el máximo de estas características y ojalá lo veamos pronto, pero no esperamos que la gente pase por una tortura infernal al pasar del 4 al 5".

Juan Cañada, el programador que ofrece píxeles más bonitos gracias a Unreal Engine Imagen 5

Una experiencia que uniese la película con los videojuegos

The Matrix: Awakens no es solo un tráiler, sino que por primera vez Epic ha lanzado una demo en sí que permite comprobar cómo se jugará usando todas las características mencionadas. "Nuestras últimas demos habían sido muy orgánicas, mucha roca, mucha geografía, cuevas… la gente incluso pensaba que Nanite solo servía para eso. Tenía mucho sentido [una demo de Matrix]. El CTO de Epic [Kim Libreri] fue el supervisor de efectos de Matrix 2, es muy amigo de Lana Wachowski y de la gente que ha estado trabajando en la nueva película de Matrix que se va a estrenar ahora y dijeron que les gustaría hacer una experiencia que una la película con los videojuegos. Por eso nos metimos ahí. Ha sido un proyecto maravilloso, muy complejo, más que todas las demos en las que yo he participado. La primera demo que hice con Epic fue la primera de ray tracing, unos star troopers en un ascensor y ninguna había sido tan compleja porque no es una cinemática solo, es un juego que tienes que publicar y tiene que ser sólido y estable porque la gente lo va a intentar romper de mil maneras. Además, no tiene solo complejidad de render, también en grados de libertad. Había retos enormes en la creación de assets, la migración a Nanite, el open world, que es gigantesco, tiene más de 4x4 km, en el sonido, las físicas, las colisiones, la inteligencia artificial de los NPCs, todo. Ha sido muy ambiciosa, está ahora todo el equipo descansando y celebrando, que se lo merecen mucho y en enero nos tenemos que volver a poner las pilas".

Hace ya un año que está disponible el código abierto en acceso anticipado en GitHub Unreal Release 5.0 y está previsto que la versión definitiva saldrá a lo largo de 2022. "Cualquiera puede meterse y ver cuánto código subimos al día y cualquiera que sea curioso y entienda un poco verá que el código que estamos subiendo ahora ya no es muy disruptivo, es código de estabilización y eso dice algo. No puedo contar fechas pero hay signos de que eso se está estabilizando y queremos sacarlo pronto. Fortnite usa 5.0, Matrix usa 5.0 y ya se puede utilizar para producciones de verdad", afirma Cañada, quien asegura que todo lo que se ve en The Matrix: Awakens está hecho con el motor excepto cuando en el vídeo inicial se mezclan imágenes de las primeras películas con el humano digital e incluso en esos planos hay una parte digital y otra real, "el vídeo solo está en una parte del espejo", dice. "El resto todo es Unreal Engine en tiempo real. Las cinemáticas están a 24 frames por segundo y el juego al final está a 30 fps, no es 60 fps todavía pero es una barbaridad, y es Xbox y PlayStation. Lo hemos sacado para consolas por una serie de motivos, pero gran parte del trabajo se ha hecho en Windows también". Epic tiene previsto sacar en Quixel todos los assets que se ven en The Matrix: Awakens gratis -es previsible que excepto los personajes-.

"Hemos hecho una demo a 30 fps para meterle un montón de calidad cinematográfica pero puedes hacer balance distinto en el que sacrifiques un poco de calidad para tener 60 frames por segundo"

Un buen momento para aprender Unreal Engine

Aunque se ha puesto en duda que las consolas actuales puedan ofrece juegos a 60 fps con las tecnologías que ofrece Unreal Engine , Cañada confía en el hardware: "claro que van a estar preparadas a 60 [fps]. De hecho Unreal 5 en Fortnite ya puedes utilizar una PlayStation 5 a 60 [fps]. Simplemente en esta demo hemos priorizado mucho la calidad visual sobre el frame rate, entonces hemos hecho una demo a 30 fps para meterle un montón de calidad cinematográfica pero puedes hacer balance distinto en el que sacrifiques un poco de calidad para tener 60 frames por segundo, por supuesto. Unreal Engine tiene que ir a 60 fps e incluso para VR a 90 fps o más".

Cañada está satisfecho con lo conseguido hasta ahora pero también es consciente de que queda mucho trabajo por delante hasta el lanzamiento de Unreal 5. Antes de terminar la entrevista añade que es un buen momento para aprender a utilizar el motor de Epic: "No os podéis imaginar la cantidad de gente que nos pregunta dónde pueden encontrar especialistas, tanto para hacer videojuegos como para virtual production, todo esto que está sucediendo ahora de unir videojuegos con cine, los paneles LED en lugar de chroma conducidos con Unreal Engine y ves la imagen final y el director entiende cómo van a quedar las cosas y para los actores también es mucho más sencillo actúar porque no tienen que estar con un fondo verde que no saben dónde va a estar todo y no se pueden ambientar igual. Ahí hay muchísimos trabajo y cada vez más. En España, en concreto, estamos viviendo una etapa dorada, está viniendo mucha industria aquí, Netflix está en Tres Cantos, al norte de Madrid, hay empresas brutales como El Ranchito haciendo cosas maravillosas, en Barcelona también hay otras empresas y en Canarias han surgido varias. Recomiendo totalmente aprender Unreal Engine tanto para juegos como para televisión y películas. Mis hijos son muy pequeños, pero si fueran más mayores, se lo diría", dice.

Juan Cañada en 5 preguntas

1- ¿Qué dos o tres tecnologías han sido claves para los videojuegos?

El ray tracing acelerado por hardware, sin duda. Las técnicas de reducción de ruido, poder renderizar a menor resolución y luego estirar, lo que se llama upscaling o upsampling. Las texturas virtuales, que es el equivalente a Nanite pero para texturas; es decir, el artista puede poner texturas de muchísima resolución en sus personajes y no tiene que hacer level of detail. Digamos que no pierde resolución según mueves la cámara y empiezas a ver artefactos. Y ahora Nanite y Lumen van a ser totalmente disruptivas.

2- ¿Cuál es tu videojuego o serie de juegos favoritos y por qué?

Ahora tengo poquito tiempo, jugaba más de pequeño. Juego a Fortnite con mis hijos. Mi tiempo de familia con mis hijos y mi mujer es siempre maravilloso, pero me voy a los videojuegos de cuando era pequeño, las aventuras gráficas de hace mucho tiempo, la serie de Monkey Island, Indiana Jones, Day of the Tentacle son mis favoritos.

3- Cuando tú empezabas a programar los retos a la hora de crear videojuegos era una buena simulación de fluidos -el agua sobre todo- y el fuego. Esto se logró hace ya un tiempo, pero también se hablaba de otra barrera, el efecto del valle misterioso, ¿estamos a punto de superarlo, por ejemplo, en The Matrix: Awakens con el personaje de Keanu Reeves?

A mí siempre me ha parecido un debate un poco raro. El uncanny valley es un término relativo en mi opinión. No va a haber un día en que toda la Humanidad se ponga de acuerdo: "vale, ya hemos superado el uncanny valley". Por supuesto, si en vez de hacer una demo a 30 frames por segundo en consola la hiciéramos en una máquina de escritorio con dos Nvidias de última generación y con otro budget le podríamos dar más precision al humano digital hasta que no se distinga prácticamente de la realidad. No es lo mismo hacer una demo para una PlayStation que hacer una cosa para una película, donde tienes un equipo más potente. Eso por un lado, y por otro lado es un término relativo porque para mi madre el uncanny valley hace ya mucho tiempo que se superó. Yo le pongo la demo de Matrix y a ella en ningún momento se le ocurre pensar que esos personajes no son de verdad. Para mí el uncanny valley es qué porcentaje de gente ya se lo cree y ahora llegamos a un momento en que solo los profesionales de eso empiezan a ver diferencias. Creo que quienes dicen que es un problema en uncanny valley están enfocando el problema de manera errónea, es un problema estadístico, de cuánta gente ya está al otro lado del uncanny valley y cada vez es más gente. A lo mejor el 70% de la gente lo ve y dice que es real, es una película que son personajes de verdad. Por supuesto, si tu audiencia es supervisores de efectos de ILM y de Disney pues la línea del uncanny valley cambia completamente.

4- ¿Has tenido algún momento "Eureka" o "Wow" en tu trabajo?

La demo Reflections que hicimos de Star Wars en 2018, que fue la primera vez que hicimos una demo de ray tracing en tiempo real, fue mi primer proyecto en Epic. Cuando llegué nos pusimos con ella y a lo mejor dos meses antes de enseñarla hubo un momento en que dijimos: "esto va a hacer historia en el computer graphic" y así ha sido. En ese momento se pensaba que el ray tracing en videojuegos era una cosa muy residual y ahora prácticamente a nadie se le ocurriría, si quieres ir a por el hiperrealismo, no utilizar ray tracing si vas a lanzar tu juego en los próximos años. Ese momento fue auténticamente revelador.

¿Es probable que sea la tecnología que más rápido se ha adoptado en los videojuegos? En menos de dos años ha pasado de ser esa revelación al pan nuestro de cada día

Sí, porque los fabricantes de consolas han sido suficientemente valientes como para apostar fuerte por esto y que no se quedase únicamente en máquinas high end. No hay ningún motivo para no empezara explorarlo.

5- ¿A quién te gustaría que entrevistásemos?

A bastante gente, por ejemplo Manuel Ramírez, que es director de efectos de El Ranchito, se dedica menos a videojuegos y más a efectos visuales, ha trabajado en Juego de Tronos y Star Wars, trabajamos juntos en Next Limits hace unos años, por no decirte alguien de mi propia empresa como Mario Palmero, que es nuestro evangelista de Unreal Engine en Madrid y viene de los videojuegos. En otro momento te puedo decir más pero empezaría por ellos.

Imágenes:

Otras noticias sobre:

En forosComentar en nuestros foros

En forosComentar en nuestros foros

Flecha subir