IT之家 8 月 18 日消息,隨著 AI 模型體積越來越臃腫,一些研究團(tuán)隊開始提倡效率更高、體積更小的專用模型來取代“大型 LLM 語言模型”。
據(jù)《自然》雜志報道,當(dāng)下 OpenAI 的 ChatGPT 是技術(shù)界的新寵,但是當(dāng) ChatGPT 遇到一些需要推導(dǎo)的數(shù)學(xué)問題時,它便會常常犯錯,《自然》雜志同時舉出一道代數(shù)題展示 ChatGPT 的局限性:
一條直線與 y=4x+6 平行且經(jīng)過 (5, 10)。它和 y 軸的交點(diǎn)的縱坐標(biāo)是多少?
《自然》雜志表示,雖然 ChatGPT 有時候能給出正確答案,但該模型依然有極高概率回答錯誤。而在雜志官方進(jìn)行的早期推導(dǎo)能力測試中,ChatGPT 面對美國中學(xué)水平的數(shù)學(xué)題集時,只答對了 26%。
《自然》雜志同時表示,在 2022 年 6 月,谷歌一款名為 Minerva 的專用數(shù)學(xué)計算模型突破了業(yè)界“大語言模型計算數(shù)學(xué)不行”觀點(diǎn),據(jù)悉,Minerva 在數(shù)學(xué)題集中答對了 50%,這一結(jié)論讓 AI 領(lǐng)域的研究者們大為吃驚。
微軟研究院的機(jī)器學(xué)習(xí)專家 Sébastien Bubeck 彼時對此表示:“在 AI 圈子里,這還真是個新奇事。”
《自然》雜志據(jù)此聲稱,Minerva 模型的結(jié)果佐證了研究團(tuán)隊們長時間以來的懷疑:訓(xùn)練更大型的 AI 模型并不是解決“邏輯問題”的正道。
不過,《自然》雜志也對這一觀點(diǎn)保留一定意見。他們注意到,有些研究團(tuán)隊的實(shí)例表示“更大的模型只是在碰巧與訓(xùn)練集相關(guān)的問題上回答得更為出色,而沒有獲得回答全新問題的能力 ”(IT之家注:因?yàn)槟P陀?xùn)練數(shù)據(jù)過多,剛好在訓(xùn)練數(shù)據(jù)中對比到了類似的問題,所以能給出標(biāo)準(zhǔn)答案)。
《自然》雜志同時給出了一系列表格,展示了當(dāng)下大型 AI 模型的參數(shù)對比:
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。