目標(biāo)打造最強(qiáng)代碼輔助工具,谷歌發(fā)布 CodeGemma AI 模型

2024/4/10 15:07:55 來(lái)源:IT之家 作者:故淵 責(zé)編:故淵

IT之家 4 月 10 日消息,谷歌公司近日發(fā)布了 CodeGemma 先進(jìn)大語(yǔ)言模型(LLMs),專(zhuān)門(mén)用于生成代碼、理解和追蹤指令等,開(kāi)發(fā)目的是讓全球開(kāi)發(fā)人員更容易獲得高質(zhì)量的代碼輔助工具。

CodeGemma 作為 Gemma 模型的開(kāi)放訪(fǎng)問(wèn)系列推出,針對(duì)代碼開(kāi)發(fā)場(chǎng)景進(jìn)行優(yōu)化、微調(diào)(fine-tuned)。該套件包括三種不同的模型:

  • 20 億參數(shù)的基礎(chǔ)模型:優(yōu)化補(bǔ)全和生成代碼,在注重延遲和隱私的情況下主要為代碼提供快速高效的解決方案。

  • 70 億參數(shù)基礎(chǔ)模型:整合代碼補(bǔ)全和自然語(yǔ)言處理,增強(qiáng)了其在完成代碼和理解語(yǔ)言生成任務(wù)時(shí)的實(shí)用性。

  • 用于指導(dǎo)追蹤的 70 億參數(shù)模型:用戶(hù)參與有關(guān)代碼、編程和數(shù)學(xué)推理的對(duì)話(huà),是開(kāi)發(fā)人員尋求指導(dǎo)或注釋的寶貴資源。

CodeGemma 的上述 3 個(gè)模型利用了預(yù)先訓(xùn)練的 Gemma 檢查點(diǎn),此外還訓(xùn)練了英語(yǔ)、數(shù)學(xué)和各種編碼語(yǔ)言的另外 5000 億個(gè)詞塊,在邏輯和數(shù)學(xué)推理方面的超凡能力,為代碼生成和完成樹(shù)立了新的標(biāo)桿。

70 億參數(shù)模型在 Python、Java、JavaScript 和 C++ 等各種編程語(yǔ)言中均表現(xiàn)出色。在 HumanEval 和 MultiPL-E 基準(zhǔn)測(cè)試中取得的優(yōu)異成績(jī)充分證明了這一能力。此外,該模型在 GSM8K 評(píng)估中名列前茅,也證明了它的多功能性和有效性。

IT之家附上參考地址

廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

相關(guān)文章

關(guān)鍵詞:谷歌,AI

軟媒旗下網(wǎng)站: IT之家 最會(huì)買(mǎi) - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機(jī)APP應(yīng)用 魔方 最會(huì)買(mǎi) 要知