NVIDIA presenta Vera Rubin: la revolucionaria plataforma de computación de IA de seis chips debuta en CES 2026
Resumen de Noticias
NVIDIA ha lanzado oficialmente su revolucionaria plataforma de computación de IA Vera Rubin en la Consumer Electronics Show (CES) 2026, marcando un avance significativo en la infraestructura de inteligencia artificial. El anuncio, realizado durante la presentación principal del CEO Jensen Huang el lunes 6 de enero de 2026 (hora del Pacífico), introduce una arquitectura de supercomputadora de IA de próxima generación que promete transformar el panorama de las capacidades de entrenamiento e inferencia de IA.
La Revolucionaria Arquitectura de Seis Chips Promete un Aumento de Rendimiento 5x y una Reducción de Costos 10x
En la Consumer Electronics Show 2026 en Las Vegas, el CEO de NVIDIA, Jensen Huang, presentó la plataforma de computación de IA más ambiciosa de la compañía hasta la fecha: Vera Rubin. Nombrado en honor a la pionera astrónoma estadounidense, este sistema innovador representa el primer enfoque de "co-diseño extremo" de NVIDIA, integrando seis chips especializados para crear lo que la compañía llama "una increíble supercomputadora de IA".
Descripción General de la Plataforma y Especificaciones Técnicas
La plataforma Vera Rubin consta de seis componentes meticulosamente diseñados que trabajan en perfecta armonía:
Componentes Principales:
- CPU Vera: Un procesador ARM personalizado de 88 núcleos con tecnología de "multihilo espacial", que ofrece efectivamente un rendimiento de 176 hilos.
- GPU Rubin: Un procesador de doble chip construido sobre el proceso de 3 nm de TSMC, con 336 mil millones de transistores y 288 GB de memoria HBM4.
- Conmutador NVLink 6: Tecnología de interconexión avanzada que proporciona 28,8 TB/s de ancho de banda.
- SuperNIC ConnectX-9: Interfaz de red de alto rendimiento que ofrece 1,6 Tb/s de ancho de banda.
- DPU BlueField-4: Unidad de procesamiento de datos para seguridad mejorada y descarga de almacenamiento.
- Conmutador Ethernet Spectrum-6: Tecnología revolucionaria de fotónica de silicio para redes de centros de datos.
Avances en Rendimiento
El sistema a escala de rack Vera Rubin NVL72 ofrece métricas de rendimiento sin precedentes que establecen nuevos estándares en la industria. Cada GPU Rubin logra 50 PFLOPS de rendimiento de inferencia utilizando el formato de precisión NVFP4 de NVIDIA, lo que representa una mejora de 5 veces con respecto a la arquitectura Blackwell anterior. Para cargas de trabajo de entrenamiento, el sistema ofrece 35 PFLOPS, lo que marca un aumento de rendimiento de 3,5 veces.
Quizás lo más notable es que NVIDIA afirma que la plataforma reduce los costos de inferencia de modelos de mezcla de expertos (MoE) hasta 10 veces, al tiempo que requiere solo una cuarta parte del número de GPUs para el entrenamiento en comparación con los sistemas Blackwell. Esta drástica mejora de la eficiencia posiciona la plataforma para acelerar significativamente la adopción generalizada de la IA.
Innovación en Memoria y Almacenamiento
La plataforma introduce varias innovaciones de memoria críticas para las cargas de trabajo de IA de próxima generación. Cada GPU Rubin incorpora ocho pilas de memoria HBM4, lo que proporciona una capacidad de 288 GB con un impresionante ancho de banda de memoria de 22 TB/s, lo que representa una mejora de 2,8 veces con respecto a la implementación HBM3e de Blackwell.
NVIDIA también ha presentado su solución de almacenamiento nativa de IA, la Plataforma de Almacenamiento de Memoria de Contexto de Inferencia. Esta capa especializada de caché KV mejora la inferencia de contexto largo con un rendimiento de tokens 5 veces mayor, un rendimiento 5 veces mejor por costo total de propiedad y una eficiencia energética 5 veces mejor.
Impacto en el Mercado y Adopción en la Industria
El anuncio tiene implicaciones significativas para la industria de la IA, y los principales proveedores de nube ya se están posicionando como adoptantes tempranos. Amazon Web Services, Google Cloud, Microsoft Azure y Oracle Cloud Infrastructure se han comprometido a implementar instancias basadas en Vera Rubin a partir de la segunda mitad de 2026.
Microsoft planea integrar los sistemas a escala de rack NVIDIA Vera Rubin NVL72 en sus sitios de superfábricas de IA Fairwater de próxima generación, escalando a cientos de miles de Superchips NVIDIA Vera Rubin. CoreWeave incorporará sistemas basados en Rubin en su plataforma de nube de IA, operada a través de su interfaz Mission Control para una mayor flexibilidad y rendimiento.
Cronograma de Producción y Disponibilidad
NVIDIA confirmó que los seis chips de la plataforma Rubin han regresado con éxito de la fabricación y actualmente están en producción completa. La compañía espera aumentar la producción en volumen durante la segunda mitad de 2026, y los socios ofrecerán servicios basados en Rubin en el mismo período.
La preparación para la producción marca un hito importante para NVIDIA, que ha mantenido su cadencia anual de entrega de supercomputadoras de IA de nueva generación a pesar de la creciente complejidad y las demandas de rendimiento.
Implicaciones del Panorama Competitivo
El anuncio de Vera Rubin se produce en medio de una competencia cada vez más intensa en el mercado de la infraestructura de IA. Advanced Micro Devices está lanzando sus sistemas a escala de rack Helios para competir directamente con las ofertas de NVIDIA, mientras que los principales proveedores de nube, incluidos Google y Amazon, continúan desarrollando procesadores propietarios.
A pesar de estas presiones competitivas, el enfoque de plataforma integral de NVIDIA, que trata todo el centro de datos en lugar de los componentes individuales como la unidad de cómputo, posiciona a la compañía de manera única en el mercado. La filosofía de co-diseño extremo garantiza un rendimiento optimizado en todos los componentes del sistema en lugar de una optimización aislada.
Aplicaciones y Casos de Uso Futuros
La plataforma se dirige específicamente a aplicaciones emergentes de IA, incluida la IA agentiva, modelos de razonamiento avanzados y arquitecturas sofisticadas de mezcla de expertos. Estas aplicaciones representan la próxima frontera de la inteligencia artificial, yendo más allá de los simples chatbots a sistemas de razonamiento complejos capaces de resolver problemas en varios pasos.
NVIDIA posiciona a Vera Rubin como infraestructura esencial para la transición de la inferencia tradicional a lo que el CEO Jensen Huang describe como "procesos de pensamiento": sistemas de IA que deliberan y razonan a través de consultas complejas en lugar de proporcionar respuestas inmediatas.
Ecosistema Tecnológico Más Amplio
El anuncio de Vera Rubin fue acompañado por varias revelaciones tecnológicas complementarias, incluida la familia de modelos de razonamiento abierto Alpamayo para el desarrollo de vehículos autónomos y asociaciones mejoradas con el líder en automatización industrial Siemens.
Estos anuncios refuerzan la estrategia de NVIDIA de crear ecosistemas integrales en lugar de productos independientes, posicionando a la compañía como el proveedor de infraestructura fundamental para la próxima generación de aplicaciones de IA en múltiples industrias.
La plataforma Vera Rubin representa más que una actualización de hardware: encarna la visión de NVIDIA para una infraestructura de IA capaz de soportar la escala masiva y los requisitos de complejidad de los futuros sistemas de inteligencia artificial. A medida que la IA pasa de ser una tecnología experimental a un despliegue a escala industrial, plataformas como Vera Rubin pueden resultar esenciales para realizar todo el potencial de la inteligencia artificial en la sociedad y la economía global.