IT之家 2 月 13 日消息,《華爾街日報》當(dāng)?shù)貢r間 11 日發(fā)布文章,探討了當(dāng)前“AI 幻覺”的現(xiàn)象和潛在解法。該報記者 Ben Fritz 向多款全球最先進的 AI 聊天機器人詢問“自己的配偶是誰”,得到的答案卻令本人匪夷所思:一位自己并不認識的作家、一名來自愛荷華州的陌生女性,還有一名網(wǎng)球運動博主。
根據(jù)報道,盡管 AI 在解決復(fù)雜數(shù)學(xué)問題和模擬人類交流方面表現(xiàn)出色,但在基本事實上卻常常出錯。它們會捏造法律案件,混淆電影和書籍的情節(jié),甚至“憑空”編造配偶。
IT之家注:上述錯誤往往被稱作“幻覺”,因為 ChatGPT、Gemini 等 AI 即使在生成錯誤答案時也會表現(xiàn)得極其自信。
曾在 IBM、微軟實習(xí)的德國 Hasso Plattner 研究所博士生 Roi Cohen 表示,這是當(dāng)前 AI 研究最熱門的方向之一。
AI 的工作原理是預(yù)測答案中最可能出現(xiàn)的下一個單詞。從本質(zhì)上看,這一過程更像是一種高級猜測。AI 往往會以堅定的語氣給出最可能正確的答案,而不會表現(xiàn)出任何不確定性,這就像學(xué)生在多項選擇題考試中作答,或是社交場合中隨口應(yīng)對問題的人一樣。
西班牙瓦倫西亞人工智能研究所的教授 José Hernández-Orallo 解釋道,“AI 之所以會產(chǎn)生幻覺,根本原因在于,如果它什么都不猜,就完全不可能答對?!?/p>
為了解決這個問題,研究人員正嘗試“檢索增強生成”(retrieval augmented generation)技術(shù),讓 AI 在回答問題時先從互聯(lián)網(wǎng)或文檔庫中查找最新信息,而不是完全依賴已有的訓(xùn)練數(shù)據(jù)。
在去年 12 月的 NeurIPS AI 研究會議上,Cohen 和同校博士生 Konstantin Dobler 提出了一個簡單但富有新意的想法:讓 AI 也學(xué)會承認“我不知道”。
報道指出,當(dāng)前 AI 的訓(xùn)練數(shù)據(jù)幾乎不包含“我不知道”這樣的表述,因此它們天生不會謙遜。Cohen 和 Dobler 通過調(diào)整 AI 訓(xùn)練過程,使其在可能出錯時,至少一部分情況下會選擇回答“我不知道”,從而提高整體準確性。
不過,如何平衡這一策略仍是個難題。有時候,AI 說“我不知道”,但其實答案就在它的訓(xùn)練數(shù)據(jù)里。
即便如此,對于那些依賴 AI 提供精準信息的領(lǐng)域,適當(dāng)?shù)摹爸t虛”可能更有價值。“關(guān)鍵是讓 AI 具備實用性,而不是一味追求智能?!盌obler 說道。
雖然 AI 變得越來越強大,但美國公眾對其的信任感卻在下降。皮尤研究中心數(shù)據(jù)顯示,2023 年 52% 的美國人對 AI 感到擔(dān)憂,而 2021 年這一比例僅為 37%。
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。