IT之家 12 月 7 日消息,Meta 今年的壓軸 AI 大模型來了。Meta 昨日(12 月 6 日)發(fā)布 Llama 3.3,共有 700 億參數(shù),不過性能方面媲美擁有 4050 億參數(shù)的 Llama 3.1。
Meta 強(qiáng)調(diào) Llama 3.3 模型效率更高、成本更低,可以在標(biāo)準(zhǔn)工作站上運(yùn)行,降低運(yùn)營成本的同時(shí),提供高質(zhì)量文本 AI 解決方案。
Llama 3.3 模型重點(diǎn)優(yōu)化了多語言支持,支持英語、德語、法語、意大利語、葡萄牙語、印地語、西班牙語和泰語 8 種語言。
在架構(gòu)方面,Llama 3.3 是一款自回歸(auto-regressive)語言模型,使用優(yōu)化的 transformer 架構(gòu),其微調(diào)版本使用了監(jiān)督式微調(diào)(SFT)和基于人類反饋的強(qiáng)化學(xué)習(xí)(RLHF),讓其與人類對有用性和安全性的偏好保持一致。
Llama 3.3 上下文長度為 128K,支持多種工具使用格式,可與外部工具和服務(wù)集成,擴(kuò)展模型的功能。
安全方面,Meta 采用數(shù)據(jù)過濾、模型微調(diào)和系統(tǒng)級安全防護(hù)等措施,以降低模型濫用的風(fēng)險(xiǎn);此外 Meta 鼓勵(lì)開發(fā)者在部署 Llama 3.3 時(shí)采取必要的安全措施,例如 Llama Guard 3、Prompt Guard 和 Code Shield,以確保模型的負(fù)責(zé)任使用。
IT之家附上參考地址
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。