隨著 AI 模型體積越來越臃腫, 一些研究團(tuán)隊開始提倡效率更高、體積更小的專用模型來取代“大型 LLM 語言模型”。在 2022 年 6 月,谷歌一款名為 Minerva 的專用數(shù)學(xué)計算模型突破了業(yè)界“大語言模型計算數(shù)學(xué)不行”觀點,《自然》雜志聲稱,Minerva 模型的結(jié)果佐證了研究團(tuán)隊們長時間以來的懷疑:訓(xùn)練更大型的 AI 模型并不是解決“邏輯問題”的正道。不過,《自然》雜志也對這一觀點保留一定意見。他們注意到,有些研究團(tuán)隊的實例表示“更大的模型只是在碰巧與訓(xùn)練集相關(guān)的問題上回答得更為出色,而沒有獲得回答全新問題的能力 ”(IT之家注:因為模型訓(xùn)練數(shù)據(jù)過多,剛好在訓(xùn)練數(shù)據(jù)中對比到了類似的問題,所以能給出標(biāo)準(zhǔn)答案)。