
DeepSeek está trabajando en su lenguaje R2, hasta 512 PetaFLOPS de potencia de cálculo FP16
por Juan Antonio SotoHace unos meses que DeepSeek revolucionó la Inteligencia Artificial con su modelo R1, un modelo capaz de mucho con pocos recursos (o al menos de eso presumen). Según hemos podido ver en X, a través de un experto en Inteligencia Artificial, la compañía china está preparada para el lanzamiento de su segunda versión de su LLM, DeepSeek R2. Este nuevo lenguaje también estará impulsado por tecnología de Huawei para ofrecer un gran rendimiento con pocos recursos.
Se dice que este nuevo modelo DeepSeek R2 estará impulsado con aceleradoras HUAWEI Ascend 910B, posiblemente con el HUAWEI Atlas 900 y un optimizado entrenamiento que ya hemos podido comprobar con DeepSeek R1. Este conjunto, con el nuevo LLM de la startup china, podrá alcanzar los 512 PetaFLOPS de rendimiento medio FP16. Un rendimiento que supera en más del 90% a los antiguos NVIDIA A100, junto con un reducido coste de entrenamiento de más del 97%.
Para hacer posible este lenguaje, además de la compañía responsable de desarrollar la IA, también se cuenta con otros socios que conforman la infraestructura que lo hace posible. Además, también se dice que pronto HUAWEI implementará su CloudMatrix 384, un clúster que hace frente a la solución más potente de NVIDIA y que es de fabricación nacional. Con todo este equipo detrás de DeepSeek R2, se espera un lanzamiento sin inconvenientes y del que muchos seguro están deseando probar.
Fin del Artículo. ¡Cuéntanos algo en los Comentarios!