DeepSeek está trabajando en su lenguaje R2, hasta 512 PetaFLOPS de potencia de cálculo FP16

DeepSeek está trabajando en su lenguaje R2, hasta 512 PetaFLOPS de potencia de cálculo FP16

por Juan Antonio Soto

Hace unos meses que DeepSeek revolucionó la Inteligencia Artificial con su modelo R1, un modelo capaz de mucho con pocos recursos (o al menos de eso presumen). Según hemos podido ver en X, a través de un experto en Inteligencia Artificial, la compañía china está preparada para el lanzamiento de su segunda versión de su LLM, DeepSeek R2. Este nuevo lenguaje también estará impulsado por tecnología de Huawei para ofrecer un gran rendimiento con pocos recursos.

Se dice que este nuevo modelo DeepSeek R2 estará impulsado con aceleradoras HUAWEI Ascend 910B, posiblemente con el HUAWEI Atlas 900 y un optimizado entrenamiento que ya hemos podido comprobar con DeepSeek R1. Este conjunto, con el nuevo LLM de la startup china, podrá alcanzar los 512 PetaFLOPS de rendimiento medio FP16. Un rendimiento que supera en más del 90% a los antiguos NVIDIA A100, junto con un reducido coste de entrenamiento de más del 97%.

Para hacer posible este lenguaje, además de la compañía responsable de desarrollar la IA, también se cuenta con otros socios que conforman la infraestructura que lo hace posible. Además, también se dice que pronto HUAWEI implementará su CloudMatrix 384, un clúster que hace frente a la solución más potente de NVIDIA y que es de fabricación nacional. Con todo este equipo detrás de DeepSeek R2, se espera un lanzamiento sin inconvenientes y del que muchos seguro están deseando probar.

Fin del Artículo. ¡Cuéntanos algo en los Comentarios!

Redactor del Artículo: Juan Antonio Soto

Juan Antonio Soto

Soy Ingeniero Informático y mi especialidad es la automatización y la robótica. Mi pasión por el hardware comenzó a los 14 años cuando destripé mi primer ordenador: un 386 DX 40 con 4MB de RAM y 210MB de disco duro. Sigo dando rienda suelta a mi pasión en los artículos técnicos que redacto en Geeknetic. Dedico la mayor parte de mi tiempo libre a los videojuegos, contemporáneos y retro, en las más de 20 consolas que tengo, además del PC.

Comentarios y opiniones sobre: DeepSeek está trabajando en su lenguaje R2, hasta 512 PetaFLOPS de potencia de cálculo FP16 ¿Qué opinas? ¿Alguna pregunta?