DLSS 4.5 y G-Sync Pulsar: Probamos el futuro del juego en PC que multiplica los FPS y elimina el desenfoque

NVIDIA nos muestra en París su hoja de ruta para el PC gaming, con DLSS 4.5, nuevos monitores G-Sync y una integración cada vez mayor de la inteligencia artificial, incluso como asistente de juego.
·
Actualizado: 11:00 10/2/2026

A principios de año, en el CES 2026, NVIDIA presentó una serie de nuevas tecnologías llamadas a marcar el futuro inmediato del juego en PC, entre ellas el DLSS 4.5, la nueva versión de su celebrada técnica de reescalado por IA. Hace unos días hemos tenido ocasión de verlas y probarlas de primera mano en un evento celebrado en sus oficinas de París, por lo que vamos a repasar estas novedades de forma clara y accesible, con la idea de que tanto los entusiastas del hardware como los jugadores menos especializados puedan entender qué aportan realmente.

PUBLICIDAD

DLSS 4.5: más rendimiento y mejor calidad de imagen

Como muchos sabréis, DLSS (Deep Learning Super Sampling) es la tecnología de reescalado de NVIDIA basada en inteligencia artificial, cuyo objetivo es mejorar el rendimiento y la calidad visual de los juegos, permitiendo obtener más FPS al renderizar a menor resolución y luego escalar la imagen con IA sin perder nitidez. La nueva versión DLSS 4.5 supone un salto importante frente a iteraciones anteriores, y fue la protagonista destacada en el evento.

Lo primero que probamos fue DLSS 4.5 Super Resolution con un modelo de IA transformer de segunda generación. ¿Qué significa esto? En resumen, NVIDIA ha mejorado la "inteligencia" detrás del DLSS, y el nuevo modelo utiliza cinco veces más potencia de cómputo que el anterior y ha sido entrenado con una cantidad de datos mucho mayor y de mayor fidelidad. En la práctica, esto se traduce en que la IA entiende mejor cada escena del juego, moviendo más inteligentemente los píxeles.

El resultado son gráficos más limpios y estables, con menos artefactos como el ghosting (esas sombras borrosas que dejan algunos objetos en movimiento) y un antialiasing mucho más nítido. La iluminación también gana realismo, ya que DLSS 4.5 solventa un problema de generaciones previas: ahora la IA trabaja en el espacio de color lineal (el "auténtico" del motor del juego) en lugar de en el logarítmico, evitando que las escenas muy brillantes pierdan intensidad o detalle. Por ejemplo, los neones y reflejos mantienen todo su brillo y color en pantalla, cosa que antes tendía a apagarse para evitar parpadeos.

DLSS 4.5 sigue siendo compatible con todas las tarjetas GeForce RTX actuales, y según NVIDIA estará disponible en más de 400 juegos y aplicaciones. De hecho, pudimos ver una comparativa en Black Myth: Wukong corriendo lado a lado con DLSS 4.0 y DLSS 4.5, y en la nueva versión la acción se veía más definida en movimientos rápidos y con menos defectos, aunque hay que prestar mucha atención y tener las pantallas una al lado de la otra para apreciar las diferencias.

Además de la mejora en Super Resolution, la otra gran novedad es la Generación Dinámica de Fotogramas Múltiples, incluyendo un nuevo modo 6X. NVIDIA ha llevado la generación de fotogramas por IA (introducida originalmente con DLSS 3) a otro nivel, ya que con DLSS 4.5 Multi Frame Generation puede crear hasta cinco fotogramas adicionales por cada fotograma renderizado tradicionalmente por la GPU, alcanzando un máximo de 6X. En teoría, esto podría multiplicar por seis la tasa de FPS de un juego. En la práctica, el sistema ajusta dinámicamente cuántos frames "extra" genera en cada momento según lo que necesite el juego y la frecuencia del monitor. Es decir, la IA decide al vuelo si crear, por ejemplo, 2, 3 o hasta 5 fotogramas sintéticos para mantener la fluidez óptima sin exceder la tasa de refresco (ya sea 144 Hz, 240 Hz o más).

Tuvimos ocasión de probar una demo técnica de esta Generación Dinámica de Fotogramas en modo 6X con una tarjeta RTX de la nueva serie 5000, utilizando el juego The Outer Worlds 2 como escenario. Por cada frame real producido por la GPU, la IA insertaba con acierto varios intermedios, logrando que el movimiento en pantalla fuese muy suave. Observamos cómo el algoritmo variaba el número de fotogramas generados según la complejidad de la escena para mantener la experiencia uniforme. Este tipo de tecnología apunta a que, combinada con monitores de alta tasa (240 Hz e incluso 360 Hz), se puedan superar los 240 FPS en juegos con ray tracing activado, algo impensable hasta hace poco. NVIDIA nos indicó que DLSS 4.5 Frame Generation 6X llegará en primavera y será exclusivo, al menos inicialmente, para las GPU GeForce RTX Serie 50.

NVIDIA G‑Sync Pulsar: una nueva era para monitores de juegos

Otra de las grandes novedades que vimos en París fue NVIDIA G‑Sync Pulsar, la última evolución de la tecnología de sincronización de refresco variable (VRR) de NVIDIA. Para ponerlo en contexto, la primera versión de G‑Sync en 2013 revolucionó el gaming eliminando el tearing y stuttering (roturas y tirones de imagen) gracias al VRR. Ahora, con Pulsar, NVIDIA busca dar otro salto en la fluidez y claridad visual.

G‑Sync Pulsar combina las ventajas del VRR con una técnica de retroiluminación estroboscópica variable. El monitor hace parpadear su retroiluminación a alta velocidad de forma sincronizada con los fotogramas, reduciendo el desenfoque de movimiento drásticamente. Según NVIDIA, esto logra una claridad de movimiento equivalente a superar los 1000 Hz de refresco percibido, algo jamás visto en monitores comerciales. En palabras más simples, jugando, por ejemplo, a 250 FPS constantes, la nitidez de la imagen en movimiento sería como la de un hipotético monitor de 1000 Hz.

Probamos esta tecnología comparando un monitor con G‑Sync Pulsar activado frente a otro monitor convencional (ambos de 360 Hz), usando un juego de estrategia con desplazamiento de cámara rápido como el aplaudido Anno 117: Pax Romana. La diferencia, aunque no es fácilmente perceptible a simple vista, sí lo es cuando te comienzas a fijar en los detalles de los escenarios o los personajes al mover rápidamente la cámara. Con Pulsar, los objetos en movimiento se veían mucho más definidos, sin ese desenfoque que suele ocurrir cuando mueves la vista o giras la cámara rápidamente, y una vez que te dabas cuenta la diferencia con el monitor sin esta tecnología era definitoria. Para jugadores competitivos de eSports, esto puede ser un cambio de paradigma, ya que facilita el seguimiento de enemigos y podría mejorar la puntería al minimizar la confusión visual en momentos caóticos.

Lo mejor es que esta mejora en claridad no sacrifica las bondades del VRR, no hay tearing ni parpadeos molestos siempre que mantengamos un framerate por encima de aproximadamente 90 FPS. G‑Sync Pulsar elimina la necesidad de elegir entre VRR y modos de reducción de motion blur -que antes eran mutuamente exclusivos-, ya que integra ambas cosas en uno. El resultado es una experiencia más cómoda, ya que el jugador no tiene que andar cambiando opciones del monitor según juegue competitivo o juegos inmersivos.

Cabe señalar que los primeros monitores con G‑Sync Pulsar llegan de la mano de varios fabricantes, como Acer, AOC, ASUS y MSI, con modelos de 27 pulgadas, resolución 1440p y 360 Hz de refresco. Tras probar Pulsar en persona, podemos afirmar que "engancha", y una vez ves un juego con ese nivel de nitidez en movimiento es difícil volver atrás, aunque entendemos que es una tecnología pensada para los jugadores más hardcore.

NVIDIA ACE: la IA que te ayuda dentro del juego

NVIDIA no solo piensa en gráficos, y también está incorporando inteligencia artificial directamente en la jugabilidad. Un ejemplo de ello es NVIDIA ACE for Games (por sus siglas, Avatar Cloud Engine), un conjunto de herramientas de IA diseñado para crear personajes virtuales más inteligentes y conversaciones naturales en los juegos. En París pudimos ver cómo esta tecnología se integra en Total War: Pharaoh a modo de asesor virtual dentro del juego.

La saga Total War es conocida por su complejidad, con multitud de sistemas, unidades y mecánicas que aprender. Para un jugador novel puede resultar abrumador, y aquí entra en juego el asesor impulsado por NVIDIA ACE, que básicamente es un personaje controlado por IA al que puedes preguntarle con lenguaje natural cualquier cosa sobre el juego y recibir consejos en tiempo real. ¿No sabes qué hacer cuando hay una rebelión en una provincia? ¿Dudas qué tropas son más efectivas contra ciertos enemigos? Le preguntas al asesor de Pharaoh y te responde con indicaciones útiles al momento.

La gracia de ACE es que todo ocurre en local, aprovechando la potencia de la GPU RTX para ejecutar un modelo de lenguaje pequeño pero especializado en el contenido del juego. Creative Assembly (el estudio desarrollador) ha incorporado esta IA directamente en su título, de forma que el asesor tiene acceso a los datos internos de la partida. En la demo comprobamos que el asistente resultaba realmente útil, y respondía correctamente sobre las mecánicas del juego y nos guiaba para aprender a jugar mejor.

Eso sí, como con toda IA conversacional, la utilidad también depende de saber formular bien las preguntas, pero afortunadamente, el lenguaje natural lo hace bastante intuitivo. Nos sorprendió especialmente ver lo bien integrado que estaba en la interfaz, casi se sentía como hablar con un NPC experto dentro del mundo del juego, aunque eso sí, de momento solo daba respuestas en inglés. Sin duda, es una muestra de cómo la IA puede servir para mejorar la experiencia del jugador, sobre todo en juegos complejos, reduciendo la curva de aprendizaje. Veremos si en el futuro más títulos adoptan asistentes similares para guiar a los jugadores.

GeForce NOW para Linux: juego en la nube sin barreras

Buenas noticias para los jugadores que usan Linux, ya NVIDIA por fin ha lanzado una aplicación nativa de GeForce NOW en Linux. GeForce NOW, el servicio de juego en la nube de NVIDIA, ya era accesible en esta plataforma vía navegador, pero ahora cuenta con un cliente dedicado (inicialmente para distribuciones basadas en Ubuntu) que mejora la experiencia. En la práctica, esto significa que cualquier PC o portátil con Linux puede transformarse en una máquina de juego de altas prestaciones, aprovechando la potencia de los servidores RTX en la nube.

Esta mejora de soporte oficial elimina complicaciones para los usuarios de Linux, que ahora pueden simplemente instalar el paquete desde la web de NVIDIA y empezar a jugar a sus títulos favoritos con gráficos RTX ON y altas resoluciones, independientemente del hardware local. En definitiva, la plataforma Linux queda equiparada a Windows o Mac en lo que respecta a juego por streaming, abriendo las puertas a que más gente aproveche sus dispositivos con Linux para gaming de primer nivel. Si lleváis mucho tiempo sin probar GeForce NOW, o nunca lo habéis probado, dadle un tiento, ya que os aseguramos que os va a sorprender y mucho la calidad de imagen que ha alcanzado, y la latencia casi indetectable en una gran mayoría de juegos.

La decidida apuesta de NVIDA por la IA generativa

Más allá del terreno puramente lúdico, y a pesar de lo que pueda parecer por las últimas noticias, NVIDIA está empujando con fuerza el uso de la IA generativa en PC, especialmente orientada a creadores de contenido y usuarios avanzados. Las mejoras anunciadas y mostradas permiten acelerar de forma notable tareas como la generación de imágenes, vídeo o texto directamente en local, aprovechando mejor las GPU RTX. La idea es reducir tiempos, consumo de memoria y dependencia de la nube, haciendo que flujos de trabajo que antes eran lentos o inviables en un PC doméstico empiecen a ser cotidianos.

Uno de los ejemplos más claros es la optimización de ComfyUI, una de las interfaces más utilizadas para trabajar con modelos generativos. Gracias a nuevos formatos de inferencia y a la colaboración directa con NVIDIA, estos modelos pueden ejecutarse mucho más rápido y con un consumo de VRAM significativamente menor en las nuevas GeForce RTX. A esto se suma el nuevo nodo RTX Video, pensado para el escalado de vídeo por IA. En la práctica, permite convertir clips generados a baja resolución en vídeo 4K en cuestión de segundos, con una mejora visible en nitidez y limpieza, lo que abre la puerta a producir contenido de alta calidad sin necesidad de soluciones profesionales o renderizado en la nube.

En esta misma línea se sitúan modelos como LTX-2, capaces de generar vídeo con IA y audio incluido directamente en un PC RTX. Combinando estas herramientas con técnicas que aprovechan la memoria del sistema cuando la VRAM no es suficiente, NVIDIA demuestra que ya es posible crear clips de varios segundos en 4K con una calidad cercana a la de modelos alojados en la nube. Aunque estos flujos de trabajo siguen siendo complejos, el salto en rendimiento y accesibilidad es evidente frente a lo que era posible hace apenas un año.

La apuesta por la IA local se completa con propuestas como Hyperlink, un asistente que convierte el PC en una base de conocimientos privada capaz de buscar y responder preguntas sobre documentos, imágenes o vídeos, y con DGX Spark, un equipo pensado para descargar tareas de IA intensivas sin saturar el ordenador principal. Aunque Spark no está orientado al gran público por precio y enfoque (cuesta más de 4000 euros), sirve para ilustrar bien la estrategia de NVIDIA, que es llevar capacidades de inteligencia artificial cada vez más potentes al entorno de escritorio, ya sea para crear contenido, organizar información o experimentar con modelos avanzados sin depender constantemente de servicios externos.

Hemos escrito este artículo tras asistir a un evento en las oficinas de NVIDIA en París.

Jorge Cano
Redactor

Imágenes:

En forosComentar en nuestros foros

En forosComentar en nuestros foros

Flecha subir