Los 7 chips que forman la plataforma NVIDIA Vera Rubin están ya en producción
por Antonio Delgado GTC 2026NVIDIA ha presentado en el GTC 2026 la plataforma completa Vera Rubin, un ecosistema modular de infraestructura de computación de alto rendimiento para IA que integra siete nuevos chips, ya en fase de producción, para el despliegue de factorías de IA a escala. El sistema se aleja del típico esquema de servidores aislados para centrarse en un diseño de supercomputador a nivel de rack.
De esta manera, la compañía asegura haber optimizando cada fase del proceso de la IA, desde el pre-entrenamiento con grandes cantidades de datos, hasta la inferencia en tiempo real de sistemas de IA agénticos.

La arquitectura combina las nuevas GPUs Rubin y CPUs Vera con avances en interconexión y almacenamiento específico para IA, como la integración de procesadores Groq 3 LPU y sistemas de caché de datos dedicados. Mediante la arquitectura modular MGX y la plataforma de gestión de energía DSX, NVIDIA busca maximizar el rendimiento por vatio y la densidad de computación, permitiendo un despliegue de infraestructura hasta un 30% superior dentro de los límites de potencia de los centros de datos actuales.
Así, la plataforma está formada por los siguientes sistemas o "subplataformas":
NVIDIA Vera Rubin NVL72
La plataforma Vera Rubin NVL72 integra 72 GPUs Rubin y 36 CPUs Vera conectadas mediante NVLink 6, junto con SuperNICs ConnectX-9 y DPUs BlueField-4. Esta configuración permite entrenar modelos de mezcla de expertos (MoE) utilizando una cuarta parte de las GPUs necesarias en la arquitectura Blackwell, logrando un rendimiento de inferencia por vatio hasta 10 veces superior. El sistema escala a través de redes Quantum-X800 InfiniBand y Spectrum-X Ethernet para optimizar la utilización en clústeres masivos de GPUs.
NVIDIA Vera CPU Rack
El rack de CPU NVIDIA Vera está diseñado para cargas de trabajo de aprendizaje por refuerzo e IA agéntica que requieren entornos basados en CPU para validar resultados. Utiliza infraestructura MGX refrigerada por líquido e integra 256 CPUs Vera, ofreciendo un rendimiento monohilo que supera en un 50% a las CPUs tradicionales con el doble de eficiencia energética. La sincronización en la factoría de IA se gestiona mediante redes Spectrum-X, estableciendo una base para la ejecución de herramientas agénticas a escala.
NVIDIA Groq 3 LPX Rack
El rack Groq 3 LPX incorpora 256 procesadores LPU con 128 GB de SRAM integrada y un ancho de banda de 640 TB/s. Diseñado para inferencia de baja latencia en modelos de un billón de parámetros y contextos de un millón de tokens, este sistema ofrece hasta 35 veces más rendimiento por megavatio. Al combinarse con las GPUs Rubin, las LPUs aceleran el proceso de decodificación computando conjuntamente cada capa del modelo de IA, lo que optimiza la eficiencia en memoria y cómputo bajo condiciones de uso extremo.
NVIDIA BlueField-4 STX Storage Rack
La infraestructura de almacenamiento BlueField-4 STX combina la CPU Vera con la SuperNIC ConnectX-9 para crear una capa compartida de alto ancho de banda. Optimizada para la caché KV generada por modelos de lenguaje extensos, utiliza el marco DOCA Memos para procesar el almacenamiento de forma dedicada. Este diseño permite aumentar el rendimiento de la inferencia hasta 5 veces y mejora la eficiencia energética en comparación con las arquitecturas de almacenamiento de propósito general, facilitando interacciones de múltiples turnos con agentes de IA.
NVIDIA Spectrum-6 SPX Ethernet Rack
El sistema Spectrum-6 SPX está enfocado en acelerar el tráfico este-oeste dentro de las factorías de IA mediante conectividad de baja latencia entre racks. Admite configuraciones con switches Spectrum-X Ethernet o Quantum-X800 InfiniBand. La tecnología de fotónica de Ethernet con óptica coempaquetada logra una eficiencia energética óptica hasta 5 veces superior y una resiliencia 10 veces mayor que los transceptores enchufables convencionales, optimizando la disponibilidad del sistema bajo cargas de trabajo continuas de alta intensidad.
Fin del Artículo. ¡Cuéntanos algo en los Comentarios!



