IT之家 8 月 29 日消息,智譜 AI 在 KDD 2024 大會(huì)上發(fā)布了新一代基礎(chǔ)模型,自稱(chēng)在相應(yīng)領(lǐng)域均達(dá)到了國(guó)際第一梯隊(duì)的水準(zhǔn),并宣布在 MaaS 平臺(tái)上免費(fèi)開(kāi)放 GLM-4-Flash API:
語(yǔ)言模型 GLM-4-Plus:在語(yǔ)言理解、指令遵循、長(zhǎng)文本處理等方面性能得到全面提升。
文生圖模型 CogView-3-Plus:具備與當(dāng)前最上面的 MJ-V6 和 FLUX 等模型接近的性能。
圖像 / 視頻理解模型 GLM-4V-Plus:具備卓越的圖像理解能力,并具備基于時(shí)間采集的視頻理解能力。該模型將上線(xiàn)開(kāi)放平臺(tái)(bigmodel.cn),并成為國(guó)內(nèi)首個(gè)通用視頻理解能力模型 API。
視頻生成模型 CogVideoX:在發(fā)布并開(kāi)源 2B 版本后,5B 版本也正式開(kāi)源,其性能進(jìn)一步增強(qiáng)。
GLM-4-Flash API:推理服務(wù)免費(fèi),并提供完全強(qiáng)大的服務(wù)。
除此之外,智譜還宣布在清言 App 上線(xiàn)了視頻通話(huà)功能,這是國(guó)內(nèi)首個(gè)面向 C 端用戶(hù)開(kāi)放的視頻通話(huà)服務(wù)。
智譜表示,GLM-4-Plus 基礎(chǔ)模型在各項(xiàng)指標(biāo)上,實(shí)現(xiàn)與 GPT-4o 等第一梯隊(duì)模型持平。此外,在 GLM-4-Plus 模型的訓(xùn)練過(guò)程中,智譜通過(guò)采用更精準(zhǔn)的長(zhǎng)短文本數(shù)據(jù)混合策略,顯著增強(qiáng)了模型在長(zhǎng)文本推理方面的表現(xiàn)。
對(duì)于 CogView-3-Plus,智譜采用 Transformer 架構(gòu)替代了傳統(tǒng)的 UNet 架構(gòu)來(lái)訓(xùn)練擴(kuò)散模型,并深入研究了擴(kuò)散模型的噪聲規(guī)劃,其效果目前接近一線(xiàn)水平的 MJ-V6 和 FLUX 等模型。
目前 GLM-4-Plus 模型已正式上線(xiàn)開(kāi)放平臺(tái)(IT之家注:bigmodel.cn),對(duì)外提供 API 服務(wù);同時(shí)也即將在清言 App 中上線(xiàn);CogView-3-Plus 模型已經(jīng)正式上線(xiàn)清言 App 供大家使用。
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。