近日,Gitee AI 正式推出了四個輕量級版本的 DeepSeek 模型,分別為 DeepSeek-R1-Distill-Qwen-1.5B、DeepSeek-R1-Distill-Qwen-7B、DeepSeek-R1-Distill-Qwen-14B 和 DeepSeek-R1-Distill-Qwen-32B。尤為引人注目的是,這些模型均部署在國產沐曦曦云 GPU 上,標志著我國在人工智能領域的自主研發能力又邁出了堅實的一步。
相較于全尺寸的 DeepSeek 模型,這些輕量級版本的蒸餾模型在保持高性能的同時,顯著降低了資源占用和部署成本,更適合企業內部的應用和部署需求。這一舉措無疑將推動人工智能技術在更多行業和企業中的普及和應用。
本次 Gitee AI 的 Deepseek R1 模型與沐曦曦云 GPU 的結合,不僅展現了從芯片到平臺、從算力到模型的全方位國產研發實力,更為我國人工智能產業的發展注入了新的活力。DeepSeek R1 作為一款擁有 6710 億個參數的大型混合專家(MoE)模型,其支持的大輸入上下文長度達到了 128000 個 Token,性能卓越。
而此次部署在沐曦曦云 GPU 上的四個 DeepSeek R1 蒸餾模型,更是以較小的參數量實現了與大參數模型相當的性能表現,這無疑將進一步提升人工智能技術的效率和實用性。
為了讓更多開發者能夠享受到這一技術成果,Gitee AI 目前已將 DeepSeek-R1-Distill 系列模型面向全體開發者免費開放。這一舉措無疑將激發更多開發者的創新熱情,推動人工智能技術在更廣泛的領域得到應用和發展。