亚洲第一福利视频,欧美黑人粗大xxxxpp,国内精品一区二区三区,国产精品久久久久影院色

智快網(wǎng) - 新科技與新能源行業(yè)網(wǎng)絡(luò)媒體

Meta新推Llama 3.2量化版,1B/3B模型功耗再降低!

   發(fā)布時間:2024-10-27 15:15 作者:陸辰風(fēng)

meta公司近日宣布,繼9月推出Llama 3.2的1B與3B模型后,他們于10月24日發(fā)布了這兩個模型的量化版本。通過量化,模型大小平均縮減了56%,RAM使用量降低了41%,并且模型運(yùn)行速度提升了2至4倍,功耗也有所下降,這使得模型更易于部署在移動設(shè)備上。

meta采用了兩種量化方法:量化感知訓(xùn)練(QAT)和后訓(xùn)練量化(SpinQuant)。前者注重模型的準(zhǔn)確性,后者則強(qiáng)調(diào)模型的可移植性。

針對Llama 3.2的1B和3B模型,meta分別推出了兩款量化版本。這些量化模型相較于非量化的Llama BF16模型,速度更快,RAM占用更少,功耗更低,同時保持了與Llama BF16版本相近的精度。

盡管量化后的模型支持的Token上下文有所減少,但meta的測試顯示,量化版本的基準(zhǔn)測試結(jié)果與原版相差無幾。

meta已在一加12、三星S24+/S22及蘋果iOS設(shè)備等移動平臺上測試了這些量化模型,并計(jì)劃未來通過神經(jīng)處理單元(NPU)進(jìn)一步提升模型性能。

 
 
更多>同類內(nèi)容
全站最新
熱門內(nèi)容
本欄最新
 
智快科技微信賬號
ITBear微信賬號

微信掃一掃
加微信拉群
電動汽車群
科技數(shù)碼群