Amazon integrará la tecnología de conexión de NVIDIA dentro de sus propios procesadores para acelerar la IA
por Edgar OteroLa conferencia anual AWS re:Invent ha servido de escenario para consolidar una de las alianzas más significativas en la infraestructura de la nube. Amazon Web Services y NVIDIA han anunciado una expansión de su colaboración estratégica que, por primera vez, llevará la tecnología de interconexión de NVIDIA directamente al corazón del hardware propietario de Amazon. El movimiento busca responder a la demanda insaciable de capacidad de cómputo que requiere la nueva generación de inteligencia artificial.
El núcleo de este acuerdo reside en la adopción de NVIDIA NVLink Fusion por parte de AWS para el desarrollo de sus chips personalizados. Esto incluye la próxima generación de procesadores Trainium4, diseñados específicamente para el entrenamiento de modelos de IA y tareas de inferencia, así como la integración en las CPUs Graviton y el sistema de virtualización AWS Nitro. Esta maniobra permitirá a Amazon combinar su silicio propio con la arquitectura de racks NVIDIA MGX, optimizando la velocidad y la eficiencia del despliegue de sistemas a gran escala.
Esta integración técnica representa un cambio notable en la estrategia habitual de los proveedores de nube, que suelen mantener sus desarrollos de hardware separados de proveedores externos. Al unificar la arquitectura de escalado de NVIDIA con el silicio de AWS, ambas compañías pretenden acelerar el tiempo de comercialización de nuevas capacidades de IA, creando una estructura de cómputo más densa y rápida para gestionar cargas de trabajo masivas.
Factorías de IA y soberanía de datos
Más allá del hardware, el anuncio habla por primera vez del concepto de AWS AI Factories. Se trata de una nueva oferta en la nube diseñada para proporcionar infraestructura dedicada a gobiernos y grandes organizaciones que necesitan cumplir con requisitos estrictos de soberanía de datos. Estas "fábricas" permitirán a los clientes desplegar modelos masivos utilizando la arquitectura Blackwell de NVIDIA, incluyendo los nuevos servidores HGX B300, manteniendo un control absoluto sobre la ubicación y la privacidad de su información.
En el apartado de software, la colaboración también se extiende a los modelos de lenguaje y la robótica. Los modelos abiertos NVIDIA Nemotron se han integrado en la plataforma Amazon Bedrock, facilitando a los desarrolladores la creación de agentes de IA generativa. Asimismo, se ha puesto el foco en la IA física. Por eso, los modelos de fundación NVIDIA Cosmos estarán disponibles en los servicios de AWS para potenciar el entrenamiento y la simulación de robots, un sector que requiere conjuntos de datos complejos y entornos de prueba virtuales de alta fidelidad.
Fin del Artículo. ¡Cuéntanos algo en los Comentarios!



