IT之家 3 月 17 日消息,據(jù)谷歌官方新聞稿,谷歌近日推出了一項名為 Cappy 的模型打分框架,該框架以 RoBERTa 語言模型為基礎(chǔ),主要用于檢測模型輸出的內(nèi)容,并為相關(guān)內(nèi)容打分,之后相關(guān)分?jǐn)?shù)將會作為參考基準(zhǔn)讓模型學(xué)習(xí),從而讓模型更聰明。
此外,Cappy 框架也可以作為大語言模型的“候選機(jī)制”,該框架可以內(nèi)置在模型中,并對模型預(yù)輸出的內(nèi)容生成分?jǐn)?shù),并選擇分?jǐn)?shù)最高的回應(yīng)作為最終輸出,以提高大語言模型輸出內(nèi)容的正確性。
研究人員提到,相對于業(yè)界其他方案,Cappy 框架的 RAM 用量更低,這是由于相關(guān)框架無需訪問模型參數(shù),因此該框架也能夠兼容各種閉源大模型,包括僅支持通過 Web API 訪問的模型。
IT之家從報告中得知,研究人員使用 PromptSource 的 11 項語言理解分類任務(wù)中測試 Cappy 框架,該框架雖然僅擁有 3.6 億參數(shù),但報告顯示該框架的實際糾錯性能優(yōu)于規(guī)模更大的 OPT-175B 和 OPT-IML-30B 模型,因此具有一定前瞻意義。
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。