設(shè)置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

阿里云通義千問系列 AI 開源模型升至 Qwen2:5 個(gè)尺寸、上下文長度最高支持 128K tokens

2024/6/7 7:42:41 來源:IT之家 作者:故淵 責(zé)編:故淵
感謝IT之家網(wǎng)友 killgfat 的線索投遞!

IT之家 6 月 7 日消息,通義千問(Qwen)今天宣布經(jīng)過數(shù)月的努力,Qwen 系列模型從 Qwen1.5 到 Qwen2 的重大升級,并已在 Hugging Face 和 ModelScope 上同步開源。

IT之家附上 Qwen 2.0 主要內(nèi)容如下:

  • 5 個(gè)尺寸的預(yù)訓(xùn)練和指令微調(diào)模型,包括 Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B、Qwen2-57B-A14B 以及 Qwen2-72B

  • 在中文英語的基礎(chǔ)上,訓(xùn)練數(shù)據(jù)中增加了 27 種語言相關(guān)的高質(zhì)量數(shù)據(jù);

  • 多個(gè)評測基準(zhǔn)上的領(lǐng)先表現(xiàn);

  • 代碼和數(shù)學(xué)能力顯著提升;

  • 增大了上下文長度支持,最高達(dá)到 128K tokens(Qwen2-72B-Instruct)。

模型基礎(chǔ)信息

Qwen2 系列包含 5 個(gè)尺寸的預(yù)訓(xùn)練和指令微調(diào)模型,其中包括 Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B、Qwen2-57B-A14B 和 Qwen2-72B。

模型Qwen2-0.5BQwen2-1.5BQwen2-7BQwen2-57B-A14BQwen2-72B
參數(shù)量0.49B1.54B7.07B57.41B72.71B
非 Embedding 參數(shù)量0.35B1.31B5.98B56.32B70.21B
GQATrueTrueTrueTrueTrue
Tie EmbeddingTrueTrueFalseFalseFalse
上下文長度32K32K128K64K128K

在 Qwen1.5 系列中,只有 32B 和 110B 的模型使用了 GQA。這一次,所有尺寸的模型都使用了 GQA,以便讓大家體驗(yàn)到 GQA 帶來的推理加速和顯存占用降低的優(yōu)勢。

模型評測

相比 Qwen1.5,Qwen2 在大規(guī)模模型實(shí)現(xiàn)了非常大幅度的效果提升。我們對 Qwen2-72B 進(jìn)行了全方位的評測。

在針對預(yù)訓(xùn)練語言模型的評估中,對比當(dāng)前最優(yōu)的開源模型,Qwen2-72B 在包括自然語言理解、知識(shí)、代碼、數(shù)學(xué)及多語言等多項(xiàng)能力上均顯著超越當(dāng)前領(lǐng)先的模型,如 Llama-3-70B 以及 Qwen1.5 最大的模型 Qwen1.5-110B。

IT之家附上參考地址

廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

相關(guān)文章

關(guān)鍵詞:開源AI,模型通義千問
  • 日榜
  • 周榜
  • 月榜

軟媒旗下網(wǎng)站: IT之家 最會(huì)買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機(jī)APP應(yīng)用 魔方 最會(huì)買 要知