Stability AI 宣布推出迄今為止最強(qiáng)大的小語言模型之一 Stable LM 2 1.6B。以英語、西班牙語、德語、意大利語、法語、葡萄牙語和荷蘭語的多語言數(shù)據(jù)為基礎(chǔ)進(jìn)行了訓(xùn)練,體積小、速度快,降低了硬件門檻;并提供了完全透明的訓(xùn)練細(xì)節(jié),旨在讓開發(fā)人員和模型創(chuàng)建者能夠快速進(jìn)行實(shí)驗(yàn)和迭代。
Stable LM 是一種文本內(nèi)容生成 LLM,Stability AI 于 2023 年 4 月首次推出了 30 億和 70 億參數(shù)模型。新的 StableLM 模型實(shí)際上是 Stability AI 在 2024 年發(fā)布的第二個(gè)模型,此前該公司在早些時(shí)候還發(fā)布了一個(gè) Stable Code 3B。
Stability AI 聲稱,Stable LM 2 1.6B 在大多數(shù)基準(zhǔn)測(cè)試中均優(yōu)于其他參數(shù)低于 20 億個(gè)的小語言模型,如微軟的 Phi-1.5 (1.3B) 和 Phi-2 (2.7B)、TinyLlama 1.1B 或 Falcon 1B。
不過他們也警告稱,由于小型、低容量語言模型的特性,Stable LM 2 1.6B 可能會(huì)出現(xiàn)高幻覺率、潛在的有毒語言等類似的常見問題?!拔覀円笊鐓^(qū)在構(gòu)建應(yīng)用程序時(shí)牢記這一點(diǎn),并采取適當(dāng)措施確保以負(fù)責(zé)任的方式進(jìn)行開發(fā)?!?br />
Stable LM 2 1.6B 目前可在商業(yè)和非商業(yè)領(lǐng)域使用,只要擁有 Stability AI 會(huì)員資格,即可在 Hugging Face 上測(cè)試該模型。
審核編輯:劉清
-
語言模型
+關(guān)注
關(guān)注
0文章
490瀏覽量
10225 -
LLM
+關(guān)注
關(guān)注
0文章
252瀏覽量
285
原文標(biāo)題:Stability AI推出更小、更高效的1.6B語言模型
文章出處:【微信號(hào):OSC開源社區(qū),微信公眾號(hào):OSC開源社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論