NVIDIA y AMD preparan aceleradores con memoria HBM4 personalizada que llegarán en 2026 para adelantarse a sus rivales en IA

NVIDIA y AMD preparan aceleradores con memoria HBM4 personalizada que llegarán en 2026 para adelantarse a sus rivales en IA

por Manuel Naranjo Actualizado: 18/08/2025

La pelea por el hardware de IA ya no se gana únicamente con músculo de GPU. La memoria ha pasado a primera línea y condiciona la estrategia de los grandes. NVIDIA y AMD afinan su próxima hornada de aceleradores con HBM4 y, aquí está lo relevante, preparan variantes hechas a medida de esa memoria para exprimir mejor el flujo de datos y recortar latencias.

HBM4 con sello propio

 

Según un informe publicado por SemiAnalysis, ambos fabricantes están desarrollando HBM4 con una característica poco habitual: un chip base diseñado a medida para mejorar la lógica y el enrutado de datos. En una pila HBM convencional, se apilan hasta 12 matrices DRAM interconectadas mediante TSV (Through-Silicon Vias), y existe la opción de incluir una matriz base con circuitos de lógica adaptados a tareas específicas. Lo que NVIDIA y AMD están planeando es aprovechar esa opción para optimizar la comunicación interna y la eficiencia en cargas muy concretas, especialmente las de IA.

La idea es sencilla sobre el papel: si consigues que la memoria entienda y gestione mejor los datos que maneja, puedes reducir la latencia y aumentar el rendimiento sin tocar la GPU principal. Según la publicación, esta jugada podría colocar a sus aceleradores un tercio por delante de cualquier ASIC de terceros en el mercado actual.

Un calendario que marca distancias

La diferencia clave no será solo la tecnología, sino el cuándo. Se apunta a que NVIDIA y AMD tendrían listas sus implementaciones personalizadas de HBM4 en 2026, mientras que otros fabricantes (incluyendo nombres como MediaTek) tendrían que esperar hasta 2027 para lanzar sus versiones con chip base adaptado, y lo harían ya sobre HBM4E.

En el caso de NVIDIA, esta nueva memoria personalizada debutará con la arquitectura “Rubin”, llamada a superar de forma notable el rendimiento actual de “Blackwell”. Por parte de AMD, el estreno llegará con la familia Instinct MI400, diseñada para grandes despliegues a escala de rack, pensada tanto para entrenamiento de modelos como para inferencia a gran velocidad.

Por qué no todos pueden hacerlo

 

La mayoría de las empresas que trabajan con memoria HBM optan por configuraciones estándar. Los precios están muy controlados por proveedores como Samsung, Micron y SK Hynix, y personalizarla no siempre sale rentable. Pero cuando tu volumen de compra es tan gigantesco como el de NVIDIA o AMD, las reglas cambian: puedes encargar versiones con modificaciones específicas sin que el coste por unidad se dispare.

En este caso, las personalizaciones no buscan añadir potencia de cálculo directa en teraflops, sino mejorar la eficiencia en el manejo de datos. Todo apunta a que se tratará de chips de lógica que optimicen el enrutamiento y la gestión de paquetes de información, lo que podría reducir cuellos de botella y hacer que las operaciones se completen más rápido.

El impacto en la IA: latencia bajo control

Uno de los puntos más críticos en la inferencia de modelos de IA no es solo la capacidad de cómputo bruta, sino la latencia. Si el camino que recorren los datos entre la memoria y el procesador es más corto y está mejor optimizado, las respuestas se generan antes. Un HBM “más inteligente” podría suponer mejoras de dos dígitos en el rendimiento medido en tokens por segundo, algo que, en entornos de IA generativa y procesamiento en tiempo real, marca una diferencia enorme.

El plan es evidente: moverse antes que el resto, tanto en innovación como en fechas. Si NVIDIA y AMD logran materializar lo que tienen sobre la mesa, en 2026 podrían colocarse un paso por delante de cualquier rival en aceleradores de IA. Y en un terreno donde cada milisegundo marca diferencias reales, esa pequeña ventaja puede convertirse en algo mucho más grande que un buen número en una tabla: podría inclinar la balanza y definir quién marcará el rumbo de la próxima gran etapa de la inteligencia artificial.

Fin del Artículo. ¡Cuéntanos algo en los Comentarios!

Temas Relacionados: IA HPC Estaciones de Trabajo AMD NVIDIA HBM4
Redactor del Artículo: Manuel Naranjo

Manuel Naranjo

Ingeniero informático y Técnico Superior en Topografía, que dejó las obras por su pasión: la tecnología. Desde hace ya varios años me dedico a lo que me gusta, con eso lo digo todo. Mi filosofía es el trabajo y la ilusión, no conozco otra forma de conseguir las cosas. El motor (sobre todo la F1) y el basket, mis vicios confesables.

Comentarios y opiniones sobre: NVIDIA y AMD preparan aceleradores con memoria HBM4 personalizada que llegarán en 2026 para adelantarse a sus rivales en IA ¿Qué opinas? ¿Alguna pregunta?
Expert P Series Banner