NVIDIA muestra su tecnología ACE para generar conversaciones coherentes mediante IA en los videojuegos

Se trata de un conjunto de herramientas para llevar modelos de IA avanzados a los videojuegos para que el jugador pueda tener conversaciones más naturales con los personajes.
·

La IA cobró un gran protagonismo durante el pasado 2023, año en el que se popularizaron herramientas como ChatGPT o Dall.E para tener conversaciones con inteligencias artificiales, recabar información o generar imágenes a partir de una descripción.

El uso de la IA también va a jugar un papel crucial en los videojuegos en el futuro. De hecho, ya lo hace para mejorar el rendimiento de los mismos en PC gracias a herramientas como NVIDIA DLSS para reescalar y suavizar las texturas que los jugadores de PC llevan usando ya unos años.

Pero, sin embargo, puede que el uso de la IA más interesante sea el que ya están planteando algunas desarrolladoras, que quieren que los personajes no jugador (PNJ) que vemos en los títulos sean mucho más profundos y podamos interactuar de una forma mucho más natural con ellos generando conversaciones mediante herramientas de inteligencia artificial, algo para lo que NVIDIA está también trabajando gracias a NVIDIA ACE (Avatar Cloud Engine) que unifica herramientas propias y de terceros para poder llevar esta tecnología de forma más sencilla a los videojuegos.

De hecho, este sistema para crear conversaciones más interactivas con los personajes ya está siendo adoptada por estudios tan importantes como NetEase, Tencent, Ubisoft o miHoYo mientras que NVIDIA ha mostrado su potencial en un nuevo vídeo publicado durante el CES 2024:

Avatares interactivos de primer nivel

NVIDIA ACE utiliza la tecnología NVIDIA Riva Automatic Speech Recognition para que los jugadores puedan hablar directamente con el PNJ del juego utilizando su micrófono. Una vez se registra nuestra pregunta, la IA nos da una respuesta teniendo en cuenta todo tipo de parámetros como el lugar en el que nos encontramos, lo que ha ocurrido en el mundo del juego o las características propias que tenga el personaje en cuestión, algo que han desarrollado junto a Convai.

Una vez se genera la respuesta y el personaje comienza a dárnosla, la herramienta NVIDIA Audio2Face hace que los labios de este personaje se muevan de forma natural para corresponderse con la mayor precisión posible a las palabras que está diciendo tal y como podéis ver en el vídeo que acompaña esta noticia. Además, estos sistemas de NVIDIA y de Convai también pueden utilizarse para que dos PNJ puedan tener todo tipo de conversaciones diferentes entre ellos.

Saúl González

Imágenes:

Otras noticias sobre:

En forosComentar en nuestros foros

En forosComentar en nuestros foros

Flecha subir