基於華為昇騰訓練 性能不輸英偉達!自家模型爆料:DeepSeek-R2本月要發布

神马作文网 教育资讯 26

快科技8月12日消息,ChatGPT-5已經發布,那麼國產大模型DeepSeek大版本更新也就不遠了。

從網友向DeepSeek提出的問題看,該模型給出的答案是,DeepSeek-R2預計將在2025年8月15日至8月30日之間發布。

在這樣的背景下,國產算力鏈多家公司股價出現了大漲,比如寒武紀直接今天20cm漲停,股價創歷史新高,市值突破3550億元。

按照之前的說法,DeepSeek-R2大模型將會採用一種更先進的混合專家模型(MoE),其結合了更加智能的門控網絡層(Gating Network)以優化高負載推理任務的性能。

有分析師預計,DeepSeek-R2的定價可能顯著低於OpenAI同類產品,預示著其可能顛覆現有AI服務的定價模式。

此外,還有相關消息顯示,DeepSeek-R2預計比GPT-4成本下降97%;並且是在昇騰卡上做的訓練,主打一個全方位全產業鏈的自主可控。

據相關人士透露的情況,DeepSeek-R2的總參數量可能會達到1.2萬億,比DeepSeek-R1的6710億參數增加大約一倍。

DeepSeek-R2是一款基於華為昇騰910B(Ascend 910B)晶片集群訓練的模型,在FP16精度下達到512PetaFLOPS的計算能力,晶片使用效率為82%。

據華為實驗室統計,這個性能相當於英偉達上一代A100訓練集群的91%左右。至於這些是不是真實的,還有待觀察,但看起來確實更強大、更自主了。


抱歉,评论功能暂时关闭!