Samsung se asegura más del 50 % del suministro de memoria SoCAMM2 para los servidores de IA de NVIDIA en 2026
por Manuel NaranjoEn plena fiebre por la IA, el negocio de la memoria se está moviendo a una velocidad que hace apenas dos años habría parecido ciencia ficción. HBM, DDR5, GDDR7… y ahora entra en juego otra sigla llamada a sonar cada vez más: SoCAMM2, el nuevo tipo de módulo de memoria que NVIDIA quiere convertir en estándar en sus servidores de próxima generación. Y ahí, según adelanta la prensa coreana, Samsung se ha asegurado más de la mitad de todo el pedido para 2026, un golpe estratégico que la coloca en una posición muy cómoda frente a SK hynix y Micron.
Qué es SoCAMM2 y por qué NVIDIA lo trata como “la nueva HBM”
SoCAMM (a veces escrito SoCAM) es un formato de módulo de memoria pensado para situarse muy cerca de la CPU que gobierna los servidores de IA. En lugar de soldar varios chips LPDDR directamente a la placa, como se venía haciendo hasta ahora, NVIDIA agrupa cuatro de esos chips sobre una pequeña tarjeta que se puede insertar y extraer como si fuese un módulo independiente.
La idea tiene dos ventajas claras. Por un lado, abre más “carriles” de comunicación entre el procesador y la memoria, lo que se traduce en más ancho de banda y menos cuellos de botella cuando el sistema está alimentando a varias GPU de IA a la vez. Por otro, hace que el sistema sea mucho más modular: si un módulo falla o aparece una versión con más capacidad, se puede cambiar sin rehacer la placa entera.
La primera generación de SoCAM se anunció para acompañar a las CPU Grace de NVIDIA, pero el despliegue se retrasó por ajustes de rendimiento y temperatura. Ahora, tanto NVIDIA como los fabricantes de memoria trabajan ya en SoCAMM2, pensado para la próxima CPU “Vera”, con más capacidad y mejor eficiencia energética. Micron ha llegado a hablar de módulos de 192 GB, con alrededor de un 50 % más de capacidad y un 20 % menos de consumo frente a los diseños iniciales.

Samsung se queda con la mitad del pastel
Según las cifras que manejan los proveedores, NVIDIA habría puesto sobre la mesa un volumen objetivo de unos 200.000 millones de GB en memoria para SoCAMM2. De ese total, unos 100.000 millones irían directamente a Samsung, que se convierte así en el principal suministrador del nuevo formato.
Traducido a algo más digerible: tomando como referencia chips LPDDR de 24 GB, estaríamos hablando de más de 800 millones de chips individuales. En términos de capacidad fabril, eso supone utilizar del orden de 30.000 a 40.000 obleas al mes, aproximadamente un 5 % de la producción total de DRAM de Samsung.
El resto del pedido se repartiría entre SK hynix y Micron, con la coreana quedándose previsiblemente la porción más grande de lo que no haya asegurado Samsung. Aun así, el mensaje es claro: en este formato concreto, Samsung ha logrado desplazarse al frente de la cola de proveedores de NVIDIA, algo que en los últimos años estaba muy asociado a la explosión de HBM donde SK hynix va por delante.
La baza técnica: 1c DRAM y estabilidad de producción
El factor que explicaría este giro es la combinación de tecnología de proceso y estabilidad de fabricación. SoCAMM2 se basa en DRAM LPDDR fabricada con nodos de 10 nm de sexta generación (conocidos en la jerga como 1c). Samsung habría logrado aquí un equilibrio sólido entre rendimiento, consumo y, sobre todo, rendimiento de las líneas (yield), es decir, cuántos chips buenos salen de cada oblea.
En un contexto de demanda disparada por la IA, NVIDIA no puede permitirse apostar por un proveedor que le entregue piezas bonitas en la presentación, pero que tenga problemas cuando hay que producir cientos de millones de unidades. De ahí que la estabilidad de Samsung en esta generación de LPDDR se haya traducido en contratos reales, no solo en notas de prensa.
Un movimiento que también pesa en el mercado de memoria
El acuerdo llega en un momento en el que el mercado de memoria está girando aceleradamente hacia productos de alto valor añadido para IA, dejando en segundo plano segmentos más clásicos como la DRAM para móviles o PCs. Los fabricantes están recortando producción en esas áreas para volcar capacidad en HBM, GDDR y ahora también en formatos como SoCAMM2.
Que Samsung reserve un 5 % de su producción de DRAM para un solo cliente y un solo formato no es trivial. Refuerza la idea de que el negocio realmente rentable, al menos a corto y medio plazo, pasa por acompañar a gigantes como NVIDIA en su crecimiento y no tanto por pelear márgenes mínimos en móviles de gama media.
Si la apuesta sale bien, el tándem Vera + SoCAMM2 puede convertirse en un estándar de facto en la próxima generación de servidores de NVIDIA, y eso consolidaría durante años los contratos que hoy se están firmando. Para Samsung, sería la confirmación de que su estrategia de ir más allá de la HBM y meterse de lleno en todos los formatos clave de memoria para IA ha sido la correcta.
Fin del Artículo. ¡Cuéntanos algo en los Comentarios!



