IT之家 6 月 30 日消息,Meta 前天推出了一款名為“LLM Compiler”的模型,該模型基于 Meta 現(xiàn)有的 Code Llama 打造,主打代碼優(yōu)化,目前相關(guān)模型已登陸 Hugging Face,提供 70 億參數(shù)及 130 億參數(shù)兩個(gè)版本,允許學(xué)術(shù)及商業(yè)使用,IT之家附項(xiàng)目地址如下:點(diǎn)此訪問(wèn)。
Meta 認(rèn)為,盡管業(yè)界各大語(yǔ)言模型已在各種編程代碼任務(wù)中展現(xiàn)了出色的能力,但此類模型在代碼優(yōu)化還有進(jìn)步空間,目前推出的 LLM Compiler 模型便是一款專為優(yōu)化代碼任務(wù)設(shè)計(jì)的預(yù)訓(xùn)練模型,能夠模擬編譯器對(duì)代碼進(jìn)行優(yōu)化,或?qū)ⅰ耙呀?jīng)過(guò)優(yōu)化的代碼轉(zhuǎn)換回原本的語(yǔ)言”。
IT之家獲悉,LLM Compiler 在 5460 億個(gè) LLVM-IR 和匯編代碼標(biāo)記的龐大語(yǔ)料庫(kù)上進(jìn)行了訓(xùn)練,據(jù)稱能夠達(dá)到 77% 的“代碼優(yōu)化潛力”,開(kāi)發(fā)者可以自由將相關(guān)模型配合其他 AI 模型一起使用,從而改善生成代碼的質(zhì)量。
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。