Qualcomm lleva su tecnología NPU a los centros de datos con las nuevas tarjetas de inferencia AI200 y AI250
por Antonio DelgadoQualcomm ha presentado sus nuevas soluciones de aceleración de IA para centros de datos, los Qualcomm AI200 y AI250, en formato de tarjetas y racks completos. Están orientados a entornos de inferencia dentro del proceso de la inteligencia artificial.
Pensados para centros de datos, el Qualcomm AI200 incluye 768 GB de LPDDR5 por cada tarjeta
Por un lado, el Qualcomm AI200 está diseñado para ofrecer el máximo rendimiento con el mínimo coste de adquisición y despliegue de sistemas basados en él. Integra 768 GB de memoria LPDDR5 por cada tarjeta y se puede escalar haciendo funcionar múltiples tarjetas de manera simultánea.

Por otro lado, el Qualcomm AI250 promete 10 veces más ancho de banda de memoria que las pasadas generaciones, especialmente enfocado en el proceso de inferencia de IA desagregada (separando los componentes clave en distintos módulos o incluso racks, para optimizar el procesado) y una arquitectura de memoria "near memory computing", donde los propios aceleradores están situados lo más cerca posible de la memoria para una comunicación más directa y rápida.
En ambos modelos, los racks están dotados de un sistema de refrigeración líquida directa para mantener bajo control las temperaturas de las NPU, y se entregan con un conjunto de software para hyperscale compatible con los principales frameworks de desarrollo de IA.
El Qualcomm AI200 llegará en el año 2026, mientras que el Qualcomm AI250 estará disponible el siguiente año, en 20207.
Fin del Artículo. ¡Cuéntanos algo en los Comentarios!



