設(shè)置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色
漫威《复仇者联盟 5》开拍,27 名演员公布    2025 胡润全球富豪榜发布

英偉達(dá)開源 Nemotron-Mini-4B-Instruct 小語言 AI 模型:專為角色扮演設(shè)計,9216 MLP、上下文長度 4096 詞元

2024/9/15 14:14:34 來源:IT之家 作者:故淵 責(zé)編:故淵

IT之家 9 月 15 日消息,科技媒體 marktechpost 昨日(9 月 14 日)發(fā)布博文,報道稱英偉達(dá)開源了 Nemotron-Mini-4B-Instruct AI 模型,標(biāo)志著該公司在 AI 領(lǐng)域創(chuàng)新又一新篇章。

小語言模型的大潛力

Nemotron-Mini-4B-Instruct AI 模型專為角色扮演、檢索增強(qiáng)生成(RAG)及函數(shù)調(diào)用等任務(wù)設(shè)計,是一個小語言模型(SLM),通過蒸餾(distilled)和優(yōu)化更大的 Nemotron-4 15B 獲得。

英偉達(dá)使用剪枝(pruning)、量化(quantization)和蒸餾(distillation)等先進(jìn) AI 技術(shù),讓該模型更小巧高效,尤其適用于設(shè)備端部署。

這種縮小化并未影響模型在角色扮演和功能調(diào)用等特定場景下的性能,讓其成為需要快速按需響應(yīng)的應(yīng)用的實用選擇。

該模型在 Minitron-4B-Base 模型上微調(diào),采用了 LLM 壓縮技術(shù),最顯著的特點(diǎn)之一是其能夠處理 4096 個上下文窗口詞元(token),能夠生成更長且更連貫的回復(fù)。

架構(gòu)與技術(shù)規(guī)格

Nemotron-Mini-4B-Instruct 以其強(qiáng)大的架構(gòu)著稱,確保了高效性與可擴(kuò)展性。

該模型的 Embedding Size(決定了轉(zhuǎn)化后的向量的維度)尺寸為 3072,多頭注意力(Multi-Head Attention)為 32 個,MLP 中間維度為 9216,在處理大規(guī)模輸入數(shù)據(jù)集時,仍能以高精度和相關(guān)性作出響應(yīng)。

此外,模型還采用了組查詢注意力(GQA)和旋轉(zhuǎn)位置嵌入(RoPE)技術(shù),進(jìn)一步提升了其處理與理解文本的能力。

該模型基于 Transformer 解碼器架構(gòu),是一種自回歸語言模型。這意味著它根據(jù)前面的標(biāo)記生成每個標(biāo)記,非常適合對話生成等任務(wù),其中對話的連貫流暢至關(guān)重要。

角色扮演與功能調(diào)用應(yīng)用

Nemotron-Mini-4B-Instruct 在角色扮演應(yīng)用領(lǐng)域表現(xiàn)尤為突出。憑借其龐大的標(biāo)記容量和優(yōu)化的語言生成能力,它可以嵌入到虛擬助手、視頻游戲或任何其他需要 AI 生成關(guān)鍵響應(yīng)的交互式環(huán)境中。

英偉達(dá)提供了一種特定的提示格式,以確保模型在這些場景中,尤其是在單輪或多輪對話中,輸出最佳結(jié)果。

該模型還針對函數(shù)調(diào)用進(jìn)行了優(yōu)化,在 AI 系統(tǒng)必須與 API 或其他自動化流程交互的環(huán)境中變得越來越重要。生成準(zhǔn)確、功能性響應(yīng)的能力使得該模型非常適合 RAG 場景,即模型需要創(chuàng)建文本并從知識庫中檢索和提供信息。

IT之家附上參考地址

廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

相關(guān)文章

關(guān)鍵詞:英偉達(dá)AI
  • 日榜
  • 周榜
  • 月榜

軟媒旗下網(wǎng)站: IT之家 最會買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機(jī)APP應(yīng)用 魔方 最會買 要知