TurboQuant sacude a las memorias para IA, pero el mercado no da por hecho un golpe real a Samsung o Micron

TurboQuant sacude a las memorias para IA, pero el mercado no da por hecho un golpe real a Samsung o Micron

por Edgar Otero

La presentación de TurboQuant, la nueva técnica de compresión de Google para reducir de forma drástica la memoria necesaria en modelos de inteligencia artificial, ha tenido una consecuencia inmediata en bolsa, tal y como reporta CNBC. Las acciones de compañías como Samsung, SK Hynix, Micron, Kioxia o Sandisk han acusado el golpe después de que parte del mercado interpretara que una IA más eficiente podría traducirse en una menor necesidad de chips en el futuro.

La reacción llega después de que Google asegurara que TurboQuant puede reducir hasta seis veces el uso de memoria en determinadas cargas, sobre todo al actuar sobre la KV cache, uno de los grandes cuellos de botella de los modelos de lenguaje. Como te explicamos, la clave de fondo no era solo técnica, sino industrial. Se trata de abaratar inferencia, acelerar respuestas y hacer más escalables sistemas como Gemini o los motores de búsqueda vectorial.

Ese mismo argumento es el que ha inquietado a parte de los inversores. Si una mejora algorítmica permite hacer más con menos memoria, la lectura apresurada es que el crecimiento explosivo de la demanda de DRAM y otras memorias para IA podría moderarse. Ese temor explica el castigo bursátil que han recibido estas compañías, especialmente en un segmento que venía de una subida muy fuerte apoyada por el boom de la inteligencia artificial y por la escasez relativa de oferta.

Menos memoria por modelo no implica necesariamente menos chips a largo plazo

Sin embargo, como sigue mencionando la fuente, es necesario un análisis un pelín más reposado. Varios analistas han señalado que avances como TurboQuant no tienen por qué reducir la demanda total de memoria, sino desplazar el equilibrio hacia modelos más ambiciosos y sistemas más capaces. En otras palabras, si se elimina un cuello de botella, lo habitual es que la industria aproveche ese margen para ampliar contexto, servir más usuarios o ejecutar cargas aún más complejas, no simplemente para comprar menos hardware.

Ese razonamiento encaja bastante bien con lo que sugiere el propio movimiento de Google. TurboQuant no se presentó como una forma de recortar infraestructura porque sí, sino como una herramienta para hacer viable una IA más rápida, más barata y más extendida. Y cuando la IA se vuelve más accesible, también tiende a crecer el volumen total de uso. Es la misma lógica por la que una mejora de eficiencia no siempre enfría un mercado, sino que puede terminar ampliándolo.

Por eso, más que una señal de cambio estructural, la caída de estos valores parece reflejar una toma de beneficios en un sector que ya venía muy tensionado al alza. TurboQuant introduce una variable nueva en la conversación sobre memoria para IA, pero no altera por sí sola la tesis principal del mercado: que los grandes modelos seguirán necesitando enormes cantidades de hardware, aunque cada generación aprenda a usarlo de forma más eficiente.

Fin del Artículo. ¡Cuéntanos algo en los Comentarios!

Redactor del Artículo: Edgar Otero

Edgar Otero

Soy técnico en sistemas informáticos, empecé a experimentar un Pentium II, aunque lo mío siempre ha sido el software. Desde que actualicé de Windows 95 a Windows 98 no he dejado de instalar sistemas. Tuve mi época Linuxera y fui de los que pidió el CD gratuito de Canonical. Actualmente uso macOS para trabajar y tengo un portátil con Windows 11 en el que también he instalado Chrome OS Flex. En definitiva, experimentar, probar y presionar botones.

Comentarios y opiniones sobre: TurboQuant sacude a las memorias para IA, pero el mercado no da por hecho un golpe real a Samsung o Micron ¿Qué opinas? ¿Alguna pregunta?