Zyphra 于 8 月 27 日發(fā)布博文,宣布推出 Zamba2-mini 1.2B 模型,共有 12 億參數(shù),聲稱是端側(cè) SOTA 小語言模型,在 4bit 量化下內(nèi)存占用低于 700MB。
注:SOTA 全稱為 state-of-the-art,并不是特指某個具體的模型,而是指在該項研究任務(wù)中,目前最好 / 最先進(jìn)的模型。
Zamba2-mini 1.2B 雖然尺寸不大,但媲美包括谷歌 Gemma-2B、Huggingface 的 SmolLM-1.7B、蘋果的 OpenELM-1.1B 和微軟的 Phi-1.5 等更大模型。
在推理任務(wù)中,Zamba2-mini 的卓越性能尤為顯著,與 Phi3-3.8B 等模型相比,Zamba2-mini 的首次令牌時間(從輸入到輸出第一個 token 的延遲)是此前的二分之一,內(nèi)存占用減少了 27%。
Zamba2-mini 1.2B 主要通過高度優(yōu)化的架構(gòu)實現(xiàn),融合了不同神經(jīng)網(wǎng)絡(luò)設(shè)計的優(yōu)勢,既能保持大型密集變壓器的高質(zhì)量輸出,又能以更小模型的計算和內(nèi)存效率運(yùn)行。
與前代 Zamba1 相比,Zamba2-mini 的關(guān)鍵進(jìn)步之一是集成了兩個共享注意力層(attention layers)。
這種雙層方法增強(qiáng)了模型在不同深度保持信息的能力,從而提高了整體性能。在共享注意力層中加入旋轉(zhuǎn)位置嵌入也略微提高了性能,這表明 Zyphra 致力于在模型設(shè)計中進(jìn)行漸進(jìn)而有影響力的改進(jìn)。
Zamba2-mini 是在一個包含三萬億個 token 的海量數(shù)據(jù)集上進(jìn)行預(yù)訓(xùn)練的,該數(shù)據(jù)集來自 Zyda 和其他公開來源。
這個龐大的數(shù)據(jù)集經(jīng)過了嚴(yán)格的過濾和重復(fù)處理,以確保獲得最高質(zhì)量的訓(xùn)練數(shù)據(jù),并在退火(annealing)階段對其進(jìn)一步完善,其中包括在 1000 億個質(zhì)量極高的 tokens 上進(jìn)行訓(xùn)練。
Zyphra 已承諾使 Zamba2-mini 成為 Apache 2.0 許可下的開源模型。
文章內(nèi)容僅供閱讀,不構(gòu)成投資建議,請謹(jǐn)慎對待。投資者據(jù)此操作,風(fēng)險自擔(dān)。
海報生成中...
海藝AI的模型系統(tǒng)在國際市場上廣受好評,目前站內(nèi)累計模型數(shù)超過80萬個,涵蓋寫實、二次元、插畫、設(shè)計、攝影、風(fēng)格化圖像等多類型應(yīng)用場景,基本覆蓋所有主流創(chuàng)作風(fēng)格。
9月9日,國際權(quán)威市場調(diào)研機(jī)構(gòu)英富曼(Omdia)發(fā)布了《中國AI云市場,1H25》報告。中國AI云市場阿里云占比8%位列第一。
IDC今日發(fā)布的《全球智能家居清潔機(jī)器人設(shè)備市場季度跟蹤報告,2025年第二季度》顯示,上半年全球智能家居清潔機(jī)器人市場出貨1,2萬臺,同比增長33%,顯示出品類強(qiáng)勁的市場需求。