IT之家 8 月 18 日消息,隨著 AI 模型體積越來越臃腫,一些研究團(tuán)隊(duì)開始提倡效率更高、體積更小的專用模型來取代“大型 LLM 語言模型”。
據(jù)《自然》雜志報(bào)道,當(dāng)下 OpenAI 的 ChatGPT 是技術(shù)界的新寵,但是當(dāng) ChatGPT 遇到一些需要推導(dǎo)的數(shù)學(xué)問題時(shí),它便會(huì)常常犯錯(cuò),《自然》雜志同時(shí)舉出一道代數(shù)題展示 ChatGPT 的局限性:
一條直線與 y=4x+6 平行且經(jīng)過 (5, 10)。它和 y 軸的交點(diǎn)的縱坐標(biāo)是多少?
《自然》雜志表示,雖然 ChatGPT 有時(shí)候能給出正確答案,但該模型依然有極高概率回答錯(cuò)誤。而在雜志官方進(jìn)行的早期推導(dǎo)能力測(cè)試中,ChatGPT 面對(duì)美國中學(xué)水平的數(shù)學(xué)題集時(shí),只答對(duì)了 26%。
《自然》雜志同時(shí)表示,在 2022 年 6 月,谷歌一款名為 Minerva 的專用數(shù)學(xué)計(jì)算模型突破了業(yè)界“大語言模型計(jì)算數(shù)學(xué)不行”觀點(diǎn),據(jù)悉,Minerva 在數(shù)學(xué)題集中答對(duì)了 50%,這一結(jié)論讓 AI 領(lǐng)域的研究者們大為吃驚。
微軟研究院的機(jī)器學(xué)習(xí)專家 Sébastien Bubeck 彼時(shí)對(duì)此表示:“在 AI 圈子里,這還真是個(gè)新奇事?!?/p>
《自然》雜志據(jù)此聲稱,Minerva 模型的結(jié)果佐證了研究團(tuán)隊(duì)們長時(shí)間以來的懷疑:訓(xùn)練更大型的 AI 模型并不是解決“邏輯問題”的正道。
不過,《自然》雜志也對(duì)這一觀點(diǎn)保留一定意見。他們注意到,有些研究團(tuán)隊(duì)的實(shí)例表示“更大的模型只是在碰巧與訓(xùn)練集相關(guān)的問題上回答得更為出色,而沒有獲得回答全新問題的能力 ”(IT之家注:因?yàn)槟P陀?xùn)練數(shù)據(jù)過多,剛好在訓(xùn)練數(shù)據(jù)中對(duì)比到了類似的問題,所以能給出標(biāo)準(zhǔn)答案)。
《自然》雜志同時(shí)給出了一系列表格,展示了當(dāng)下大型 AI 模型的參數(shù)對(duì)比:
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。