設置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

在富岳超算上訓練大模型,日本聯(lián)合研究團隊發(fā)布 Fugaku-LLM

2024/5/11 9:39:37 來源:IT之家 作者:溯波(實習) 責編:溯波

IT之家 5 月 11 日消息,由多方企業(yè)和機構(gòu)組成的日本聯(lián)合研究團隊昨日發(fā)布了 Fugaku-LLM 大模型。該模型的最大特色就是其是在 Arm 架構(gòu)超算“富岳”上訓練的。

Fugaku-LLM 模型的開發(fā)于 2023 年 5 月啟動,初期參與方包括富岳超算所有者富士通、東京工業(yè)大學、日本東北大學和日本理化學研究所(理研)。

而在 2023 年 8 月,另外三家合作方 —— 名古屋大學、CyberAgent(也是游戲企業(yè) Cygames 的母公司)和 HPC-AI 領域創(chuàng)企 Kotoba Technologies 也加入了該模型研發(fā)計劃。

富岳超算

▲ 富岳超算。圖源富士通新聞稿

在昨日發(fā)布的新聞稿中,研究團隊表示其充分挖掘了富岳超算的性能,將矩陣乘法的計算速度提高了 6 倍,通信速度也提升了 3 倍,證明大型純 CPU 超算也可用于大模型訓練。

Fugaku-LLM 模型參數(shù)規(guī)模為 13B,是日本國內(nèi)最大的大型語言模型。

其使用了 13824 個富岳超算節(jié)點在 3800 億個 Token 上進行訓練,其訓練資料中 60% 為日語,其他 40% 包括英語、數(shù)學、代碼等部分。

該模型的研究團隊宣稱 Fugaku-LLM 模型可在交流中自然使用日語敬語等特殊表達。

具體到測試成績上,該模型在日語 MT-Bench 模型基準測試上的平均得分為 5.5,排在基于日本語料資源的開放模型首位,并在人文社科類別中得到了 9.18 的高分。

目前 Fugaku-LLM 模型已在 GitHub 和 Hugging Face 平臺公開,外部研究人員和工程師可在遵守許可協(xié)議的前提下將該模型用于學術(shù)和商業(yè)目的。

IT之家在此附上 Fugaku-LLM 模型在 Hugging Face 平臺的地址,有興趣的小伙伴可點擊進一步了解:相關鏈接

廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

軟媒旗下網(wǎng)站: IT之家 最會買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機APP應用 魔方 最會買 要知