IT之家 7 月 23 日消息,Meta 今晚正式發(fā)布 Llama 3.1 開源大語言模型,提供 8B、70B 及 405B 參數(shù)版本。
據(jù)介紹,Llama 3.1 系列改進(jìn)了推理能力及多語言支持,上下文長度提升至 128K,首次推出 405B 參數(shù)的旗艦?zāi)P汀?/strong>
Meta 稱 4050 億參數(shù)的 Llama 3.1-405B 在常識(shí)、可引導(dǎo)性、數(shù)學(xué)、工具使用和多語言翻譯等一系列任務(wù)中,可與 GPT-4、GPT-4o、Claude 3.5 Sonnet 等領(lǐng)先的閉源模型相媲美。
此外,8B 與 70B 參數(shù)的 Llama 3.1 模型與其他參數(shù)量相似的閉源和開源模型相比,也同樣具有競(jìng)爭(zhēng)力。
IT之家注:Llama 3.1 現(xiàn)已于 Meta 官網(wǎng)和 Hugging Face 開放下載,包括 AWS、英偉達(dá)、戴爾、Azure 和 Google Cloud 在內(nèi)的超過 25 個(gè)合作伙伴也已經(jīng)準(zhǔn)備就緒。
相關(guān)閱讀:
《開源 AI 模型挑戰(zhàn)閉源里程碑?Meta Llama 3.1-405B 多項(xiàng)跑分超越 OpenAI GPT-4o》
《“最強(qiáng)開源 AI 模型”,4050 億參數(shù)版 Meta Llama 3 被曝 7 月 23 日發(fā)布》
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。