IT之家 2 月 29 日消息,英偉達(dá)近日聯(lián)合 Hugging Face 和 ServiceNow,發(fā)布了名為 StarCoder2 的 LLMs 系列模型,希望成為代碼生成領(lǐng)域的新標(biāo)準(zhǔn),具備性能、透明度和成本效益等諸多優(yōu)勢(shì)。
該系列模型包括一個(gè)由 ServiceNow 訓(xùn)練的 30 億參數(shù)模型、一個(gè)由 Hugging Face 訓(xùn)練的 70 億參數(shù)模型和一個(gè)由英偉達(dá)訓(xùn)練的 150 億參數(shù)模型。
這是通過使用名為 Stack v2 的新代碼數(shù)據(jù)集實(shí)現(xiàn)的,該數(shù)據(jù)集比 Stack v1 大七倍;新的訓(xùn)練技術(shù)也意味著該模型可以更好地理解 COBOL 等低資源編程語言、數(shù)學(xué)和程序源代碼討論。
StarCoder2 經(jīng)過 619 門編程語言培訓(xùn),可以執(zhí)行源代碼生成、工作流生成、文本摘要等專業(yè)任務(wù)。英偉達(dá)表示,開發(fā)人員可以利用它進(jìn)行代碼補(bǔ)全、高級(jí)代碼總結(jié)、代碼片段檢索等,從而提高工作效率。
英偉達(dá)表示相比較初版 StarCoder LLMs,新的 30 億參數(shù)模型進(jìn)一步精簡和篩選了優(yōu)質(zhì)參數(shù),其性能相當(dāng)于 150 億參數(shù)模型的初版 StarCoder。
StarCoder2 采用 BigCode Open RAIL-M 許可證,允許免版稅訪問和使用。IT之家注:感興趣的用戶可從 BigCode 項(xiàng)目的 GitHub 頁面獲取源代碼,可從 Hugging Face 下載模型。
相關(guān)閱讀:
《英偉達(dá) CEO 黃仁勛寄語:學(xué)習(xí)編程價(jià)值大幅降低,生成式 AI 讓人人都是程序員》
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。