top of page
IG.png

La filtración de DeepSeek R2 revela un impulso de 512 PetaFLOPS en la infraestructura nacional de aceleradores de IA

  • Foto del escritor: Masterbitz
    Masterbitz
  • hace 2 horas
  • 2 Min. de lectura

DeepSeek, una empresa que arrasó en el mundo de la IA con su modelo R1, estÔ preparando una nueva versión del modelo DeepSeek R2, supuestamente muy mejorada, según un conocido informador de IA @iruletheworldmo en X. Impulsado por los clústeres de chips Ascend 910B de Huawei, un posible Huawei Atlas 900 y el marco de entrenamiento distribuido interno de DeepSeek, R2 impulsa estos aceleradores hasta un impresionante 82% de utilización, lo que se traduce en 512 PetaFLOPS de rendimiento FP16, medio exaFLOP en potencia de cÔlculo. Según los datos del laboratorio de Huawei, esto equivale aproximadamente al 91% de lo que ofrecen los antiguos clusters A100 de NVIDIA, pero DeepSeek afirma que reduce los costes de formación por unidad en un notable 97,3%. DetrÔs de DeepSeek R2 hay un ecosistema de socios cuidadosamente cultivado. Tuowei Information, uno de los principales fabricantes de equipos originales de la familia Ascend, gestiona mÔs de la mitad de los pedidos de hardware de supercomputación de DeepSeek, mientras que Sugon suministra bastidores de servidores refrigerados por líquido capaces de gestionar hasta 40 kW por unidad. Para mantener bajo control el consumo de energía, los transceptores de silicio fotónico de Innolight ahorran otro 35% en comparación con las soluciones tradicionales.


GeogrÔficamente, las operaciones se reparten entre los principales centros: Runjian Shares gestiona el centro de supercomputación del sur de China con contratos que superan los 5.000 millones de yenes anuales, y Zhongbei Communications mantiene una reserva de 1.500 PetaFLOP en el noroeste para los picos de demanda. En cuanto al software, DeepSeek R2 ya permite el despliegue privado y la puesta a punto, impulsando iniciativas de ciudades inteligentes en 15 provincias a través de la plataforma Yun Sai Zhilian. El nodo del norte de China, supervisado por Yingbo Digital de Hongbo Shares, añade otros 3.000 PetaFLOPS a la mezcla. Si la potencia de cÔlculo escasea, Huawei estÔ preparada para desplegar su sistema CloudMatrix 384, que se posiciona como una alternativa doméstica al GB200 NVL72 de NVIDIA. Cuenta con 384 aceleradores Ascend 910C para alcanzar 1,7 veces mÔs petaFLOPS y 3,6 veces mÔs capacidad HBM que el clúster NVL72, aunque su rendimiento por chip es muy inferior y consume casi cuatro veces mÔs energía. No obstante, se espera que el lanzamiento del modelo R2 se produzca sin contratiempos, y estamos a la espera del lanzamiento oficial y las pruebas comparativas para ver su rendimiento.

Fuente: @iruletheworldmo en X

Aplus_MARS_2107_Eng(1).png
gaming2

Siguenos

  • Facebook
  • Twitter
  • YouTube
  • Instagram
gaming

© 2016 Derechos Reservados a MasterbitzReviewHN

bottom of page