Neural Texture Compression de NVIDIA irrumpe como nueva pieza clave en los gráficos con IA

  • Neural Texture Compression (NTC) reduce el uso de VRAM hasta siete veces manteniendo la calidad visual.
  • La demo «Tuscan Wheels / Tuscan Villa» muestra escenas que pasan de 6,5 GB a unos 970 MB de memoria.
  • Los «Neural Materials» permiten menos canales de material y aceleran el renderizado entre 1,4 y 7,7 veces.
  • NTC se integra en el pipeline gráfico junto a tecnologías como DLSS para optimizar memoria y fidelidad.

Tecnología Neural Texture Compression de NVIDIA

En los últimos años se ha hablado mucho de resoluciones 4K, ray tracing y DLSS, pero una de las grandes limitaciones silenciosas seguía siendo la memoria gráfica. Con texturas cada vez más pesadas y juegos más exigentes, incluso muchas tarjetas gráficas de gama media en Europa se quedaban rápido sin VRAM, obligando a bajar ajustes de calidad o a convivir con tirones y caídas de rendimiento.

En ese contexto aparece Neural Texture Compression (NTC) de NVIDIA, una tecnología de compresión de texturas basada en redes neuronales presentada en detalle durante el GTC y el GDC de 2026. Su propuesta es directa: reducir de forma muy agresiva el consumo de memoria de las texturas, pero sin empeorar la imagen percibida en pantalla, e incluso mejorándola en algunos escenarios frente a los métodos clásicos.

Cómo funciona Neural Texture Compression y qué la hace diferente

La base de NTC es el uso de pequeñas redes neuronales entrenadas específicamente para texturas, en lugar de depender solo de los formatos de compresión por bloques BCn (BC5, BC6, BC7, etc.) que la industria lleva utilizando desde hace años. Tradicionalmente, esas texturas se almacenan ya comprimidas en VRAM y la GPU las interpreta al vuelo, pero siguen ocupando una cantidad nada despreciable de memoria.

Con Neural Texture Compression, la información de la textura se guarda en una representación mucho más compacta, una especie de codificación latente que la red neuronal se encarga de decodificar en tiempo real al renderizar cada fotograma. En vez de manejar gigabytes de mapas de difusión, normales, rugosidad y demás, la GPU trabaja con un paquete de datos bastante más reducido.

Según las explicaciones de NVIDIA, estos modelos neuronales se han entrenado para entender cómo debe verse un texel (el «píxel» de una textura) para un material determinado: piedra, madera, textura de metal, cerámica, tejidos, etc. A partir de ese aprendizaje, la red puede reconstruir el aspecto final a partir de los datos comprimidos, emulando el resultado visual que tendríamos con texturas mucho más voluminosas.

El resultado práctico es que las texturas dejan de ser un «lastre» fijo en memoria y pasan a depender de un código comprimido más pequeño y de la capacidad de inferencia de la IA, algo que encaja con la tendencia general de NVIDIA de trasladar carga de memoria y ancho de banda hacia el cálculo inteligente en sus GPUs.

La demo «Tuscan Wheels / Tuscan Villa»: de 6,5 GB a menos de 1 GB de VRAM

Para ilustrar el potencial de la tecnología, NVIDIA ha mostrado varias demostraciones técnicas, entre ellas la ya conocida escena «Tuscan Wheels» o «Tuscan Villa», un entorno de villa mediterránea con interiores detallados que sirve como campo de pruebas de alto nivel de detalle.

En la configuración tradicional, usando formatos BCn estándar, la escena demanda alrededor de 6,5 GB de VRAM sólo para las texturas. Al activar Neural Texture Compression, el mismo entorno se ejecuta con aproximadamente 970 MB de memoria gráfica, es decir, una reducción cercana al 85% respecto al uso original. En alguna otra demostración se han visto cifras similares con reducciones de entorno al 80% (hasta unos 670 MB en ciertas variantes de la escena).

Lo relevante no es solo la magnitud de la bajada en VRAM, sino que la comparativa visual entre ambas versiones resulta prácticamente indistinguible para el usuario medio. Según NVIDIA, si se mantiene el mismo «presupuesto» de memoria, NTC es incluso capaz de conservar más detalle fino que las texturas BCn reducidas o reescaladas.

Un ejemplo concreto se ve en el interior de la villa, con una mesa cubierta de vajilla, botellas y objetos decorativos. En esa comparativa, la parte procesada con NTC a igualdad de memoria muestra más nitidez y microdetalles que la sección renderizada con texturas BCn reducidas para entrar en el mismo presupuesto de VRAM.

Este tipo de resultados deja entrever el doble uso de la tecnología: los estudios pueden optar por bajar a lo bruto el consumo de memoria sin perder calidad o mantener el consumo y subir un peldaño la fidelidad visual, algo especialmente atractivo para proyectos que aspiren a un aspecto casi fotorrealista.

Ventajas prácticas para juegos y motores gráficos

Desde una perspectiva de desarrollo, la principal consecuencia de todo esto es que las texturas dejan de ser tan restrictivas a la hora de diseñar escenas complejas. Menos VRAM ocupada por los mapas de superficie significa más margen para otros sistemas o para aumentar la cantidad de contenido mostrada de forma simultánea.

Para juegos de PC dirigidos al mercado europeo, donde una parte importante de la base de usuarios sigue con GPUs de gama media o con 8 GB de memoria, una compresión tan agresiva abre la puerta a activar texturas de alta resolución en equipos que, hoy por hoy, se ven obligados a recortar calidad para no superar el límite de VRAM.

Entre las ventajas que NVIDIA ha destacado se encuentran:

  • Reducción drástica del uso de VRAM, hasta siete veces en escenarios concretos.
  • Capacidad de manejar texturas de mayor resolución sin disparar los requisitos de memoria.
  • Alivio de cuellos de botella relacionados con el ancho de banda de memoria y el streaming de assets.
  • Potencial menor tamaño de instalación y de parches, al empaquetar texturas más compactas en disco.
  • Mejor aprovechamiento de equipos portátiles y consolas futuras, donde la memoria es un recurso más limitado.

Todo esto encaja con un mercado donde, incluso en Europa, los juegos superan con facilidad los 100 GB de descarga y donde el ancho de banda disponible no siempre acompaña, especialmente en zonas rurales o con conexiones más modestas. Reducir el peso de las texturas sin recortar calidad puede marcar una diferencia en tiempos de descarga y actualizaciones.

Además, al depender más de cálculo inteligente, se libera parte de la presión sobre la memoria física y se da un uso más eficiente a las capacidades de cómputo de las GPUs modernas, algo que NVIDIA lleva tiempo impulsando con otras soluciones de IA.

Neural Materials: menos canales, más velocidad

Junto a NTC, NVIDIA ha presentado también el concepto de Neural Materials, una extensión natural de la idea de compresión neuronal aplicada no solo a las texturas, sino al propio modelo físico de los materiales usados en el renderizado.

En un flujo de trabajo tradicional, para describir cómo se comporta una superficie frente a la luz se combinan múltiples canales y mapas: color base, normales, rugosidad, metalicidad, oclusión y otros datos específicos ligados a la ecuación de BRDF que use el motor gráfico. Esto se traduce en muchos datos, muchos accesos a memoria y bastantes operaciones matemáticas por píxel.

Con Neural Materials, ese conjunto de canales se reduce a una representación latente más compacta que una pequeña red neuronal se encarga de decodificar en tiempo real, reconstruyendo las propiedades visuales del material durante el renderizado.

En las pruebas compartidas por NVIDIA, una configuración de 19 canales de material se redujo a solo 8 canales, lo que, en escenas de prueba a resolución 1080p, se tradujo en aceleraciones de entre 1,4 y 7,7 veces en el tiempo de renderizado, dependiendo del caso concreto.

Esta aproximación no solo ahorra memoria, sino que simplifica el número de accesos a datos y operaciones por píxel, algo especialmente crítico en configuraciones de trazado de rayos y path tracing, donde el coste de cada rebote de luz se multiplica.

NTC dentro del nuevo pipeline gráfico con IA de NVIDIA

Neural Texture Compression no llega sola. Se suma a una estrategia más amplia en la que NVIDIA está rehaciendo partes clave del pipeline gráfico apoyándose en redes neuronales. Tecnologías como DLSS, la generación de fotogramas o el próximo DLSS 5 se asientan sobre la misma idea de fondo: trasladar parte del trabajo tradicionalmente «duro» del renderizado hacia modelos de IA optimizados.

En varias charlas técnicas del GTC se ha explicado que, más allá del simple postprocesado de imagen, la compresión y el renderizado neuronal de texturas y materiales son piezas clave para que ese ecosistema funcione bien. Reducir memoria, minimizar cuellos de botella y liberar recursos permite que otras etapas, como la reconstrucción de imagen de DLSS, dispongan de más margen.

Un punto que NVIDIA recalca es que, en el caso de NTC y Neural Materials, no se está usando IA generativa para «inventar» contenido artístico, sino modelos de inferencia diseñados para reproducir con fidelidad el aspecto de las texturas y materiales que el equipo de arte ha definido previamente. Esto busca responder a parte de las críticas que han surgido en la comunidad respecto al posible impacto de la IA en la intención visual original de los juegos.

En la práctica, el objetivo declarado es que las herramientas neuronales actúen como aceleradores técnicos, y no como sustitutos del trabajo creativo de artistas y estudios, algo que seguramente seguirá generando debate a medida que estas soluciones lleguen a títulos comerciales.

Según NVIDIA, las redes que sustentan NTC ya se han entrenado para una amplia variedad de materiales habituales en videojuegos, lo que en teoría facilitaría su integración en motores comerciales una vez la tecnología se abra a desarrolladores.

Impacto potencial en el mercado europeo y futuro despliegue

A día de hoy, NVIDIA no ha fijado una fecha concreta para que Neural Texture Compression llegue de forma generalizada a juegos comerciales, pero las demostraciones técnicas apuntan a un escenario en el que el uso de VRAM podría dejar de ser tan restrictivo, especialmente en PC.

En Europa, donde el parque de hardware es muy heterogéneo, esta clase de soluciones puede tener un impacto claro. Muchos usuarios juegan desde equipos portátiles gaming o sobremesas con GPUs con 6 u 8 GB de VRAM, una cantidad que ya empieza a quedarse corta en algunos lanzamientos AAA con texturas «ultra». Si NTC cumple con lo prometido, podría permitir mantener esos ajustes altos sin que el juego entre en terreno de swapping o caídas bruscas de rendimiento.

Por parte de los estudios, también hay incentivos prácticos: menos datos de textura significan builds más ligeros, descargas de prueba menos pesadas y tiempos de actualización más razonables. Para los jugadores europeos, donde no todo el mundo dispone de conexiones de fibra de alta velocidad, esto podría traducirse en una experiencia algo menos desesperante a la hora de instalar o actualizar grandes juegos.

No obstante, también habrá factores a vigilar. La adopción real de Neural Texture Compression dependerá de la facilidad de integración en motores como Unreal Engine, Unity u otros internos, del soporte que ofrezcan las distintas generaciones de GPUs y del equilibrio entre calidad, rendimiento y coste de implementación para cada estudio.

En cualquier caso, lo que sí parece claro es que la memoria gráfica se ha convertido en un objetivo prioritario de optimización, y que propuestas como NTC se encuadran en una tendencia más amplia hacia el «renderizado neural», donde el cálculo inteligente reemplaza a parte de las soluciones tradicionales basadas solo en fuerza bruta.

Mirando el cuadro completo, Neural Texture Compression, los Neural Materials y el resto de técnicas anunciadas alrededor de DLSS apuntan a una generación de motores gráficos en la que la IA no solo crea píxeles, sino que también decide cómo almacenarlos, comprimirlos y reconstruirlos. Si las promesas de ahorro de VRAM, mejora de detalle y reducción de tiempos de renderizado se consolidan en juegos comerciales, podríamos estar ante uno de los cambios más relevantes de los últimos años en la forma de producir y ejecutar gráficos en tiempo real.

Ajustes de sombreado para materiales mate: guía PBR de roughness, iluminación y texturas
Artículo relacionado:
Ajustes de sombreado para materiales mate: guía PBR de roughness, iluminación y texturas