IT之家 5 月 14 日消息,騰訊宣布旗下的混元文生圖大模型升級并對外開源,目前已經(jīng)在 Hugging Face 及 Github 上發(fā)布,包含模型權(quán)重、推理代碼、模型算法等完整模型,可供企業(yè)與個(gè)人開發(fā)者免費(fèi)商用。
升級后的混元文生圖大模型采用了與 Sora 一致的 DiT 架構(gòu),騰訊表示,混元 DiT 是首個(gè)中英雙語 DiT 架構(gòu)?;煸?DiT 是一個(gè)基于 Diffusion transformer 的文本到圖像生成模型,此模型具有中英文細(xì)粒度理解能力,混元 DiT 能夠與用戶進(jìn)行多輪對話,根據(jù)上下文生成并完善圖像。這也是業(yè)內(nèi)首個(gè)中文原生的 DiT 架構(gòu)文生圖開源模型,支持中英文雙語輸入及理解,參數(shù)量 15 億。
運(yùn)行該模型需要支持 CUDA 的英偉達(dá) GPU,單獨(dú)運(yùn)行混元 DiT 所需的最低顯存為 11GB,同時(shí)運(yùn)行 DialogGen(騰訊推出的文本轉(zhuǎn)圖像多模態(tài)交互式對話系統(tǒng))和混元 DiT 則至少需要 32GB 的顯存,騰訊表示他們已經(jīng)在 Linux 上測試了英偉達(dá)的 V100 和 A100 GPU。
據(jù)IT之家此前報(bào)道,國內(nèi)首個(gè)官方“大模型標(biāo)準(zhǔn)符合性評測”結(jié)果公布,騰訊混元大模型、成為首批通過評測的國產(chǎn)大模型,首批通過的大模型還有阿里通義千問、360 智腦和百度文心一言。
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。