IT之家 6 月 12 日消息,長期以來,人們常常把大語言模型提供的看似合理但錯漏百出的答案稱作“AI 幻覺(AI hallucinations)”。然而,來自英國格拉斯哥大學的三名哲學研究人員近期提出了不同的看法 ——“AI 幻覺”這樣的描述并不準確。
當?shù)貢r間 6 月 8 日,《倫理與信息技術》雜志刊登了三名研究人員的論文。這篇論文指出,聊天機器人“胡編亂造”回答的行為不應被稱為“幻覺”,用“胡說八道(bullshitting)”一詞來描述才更準確。
研究人員指出,學習過心理學或使用過迷幻類藥物的人都知道,“幻覺”通常被定義為看到、感知到不存在的東西。而在 AI 領域,“幻覺”顯然是一種隱喻,大語言模型根本看不到、感知不到任何東西。AI 并非經(jīng)歷“幻覺”,而是在復制訓練數(shù)據(jù)中的人類語言模式,并不關心事實的準確性。
機器并非試圖傳達它們相信或感知到的東西,它們的不準確性并不是因為誤解或幻覺。正如我們所指出的,它們根本不是在試圖傳遞信息,它們是在胡說八道。
研究人員認為,AI 模型沒有信念、意圖或理解力,它們的不準確性不是因為誤解或幻覺,而是因為它們被設計用來創(chuàng)建看起來、聽起來都正確的文本,沒有任何“內在機制”來確保事實的準確性。
IT之家曾多次報道過“AI 幻覺”有關現(xiàn)象。例如最近的“谷歌搜索推薦用戶往披薩里加膠水”,以及馬斯克的 Grok“誤認為”自己是 OpenAI 的產(chǎn)品等等。
劍橋詞典(Cambridge Dictionary)去年宣布,2023 年的年度詞匯為“hallucinate”(產(chǎn)生幻覺),原意為似乎看到、聽到、感覺到或聞到“一些不存在的東西”,通常是指用戶在不良健康或者服用藥物狀態(tài)下產(chǎn)生的幻覺。伴隨著 AI 的崛起,hallucinate 延伸為 AI 產(chǎn)生幻覺,生成錯誤的信息。
廣告聲明:文內含有的對外跳轉鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。