“有了搜索引擎,我們依然需要花大量時間翻網(wǎng)頁找答案,如果 AI 能直接把答案遞到你眼前,還能保證正確率,那豈不是更好?但問題就在于如果。
作者:Waleed Rikab, PhD |
編譯:唐詩 |
ChatGPT 和其他聊天機器人也許很快就會取代作為我們通往網(wǎng)絡(luò)的門戶的最突出的搜索引擎。微軟和 OpenAI 最近宣布,他們正在擴大合作伙伴關(guān)系,其中可能包括將 OpenAI 的模型集成到 Microsoft Teams,Microsoft 的 Azure 云服務(wù),Office Suite 和搜索引擎中。
同時,谷歌也不甘居于人下,可能會開始將基于其強大的 LaMDA 語言模型的產(chǎn)品集成到服務(wù)中,畢竟谷歌擁有著世界上目前最受歡迎的搜索引擎。
事實上,據(jù)媒體報道,谷歌正在急切地生產(chǎn)自己的 ChatGPT 風(fēng)格的聊天機器人,稱為“學(xué)徒巴德 (Apprentice Bard)”,與 ChatGPT 不同,它能夠利用實時信息生成文本字符串來響應(yīng)用戶的查詢。
這對我們訪問網(wǎng)絡(luò)內(nèi)容意味著什么?這些語言模型將如何決定我們應(yīng)該看到哪些信息?最后,支持人工智能的搜索引擎將如何改變知識的定義?
01、語言模型作為新的搜索引擎
可以肯定的是,今天的搜索引擎是由算法驅(qū)動的,這些算法決定了我們可以首先看到哪些結(jié)果,以及我們應(yīng)該依靠哪些來源來形成我們對世界的了解。
雖然它們可能會排除結(jié)果并過濾掉圖形或非法內(nèi)容,但當前的搜索引擎在很大程度上允許我們比較不同的來源和觀點,并由我們決定哪些結(jié)果是可靠的,特別是如果我們想要深入地挖掘搜索結(jié)果。
但另一方面,搜索引擎在辨別搜索請求的上下文方面出了名的糟糕,并且因為它們根據(jù)嚴格的層次結(jié)構(gòu)對網(wǎng)站進行排名 (基于對受歡迎程度或權(quán)威性的考慮) 可能很難獲得所需的特定信息。然而,隨著時間的推移,人們已經(jīng)開發(fā)出搜索技術(shù)來獲得更多精確的結(jié)果,例如將搜索詞放在引號中,使用布爾運算符,或?qū)⑺阉飨拗茷樗璧奈募愋突蚓W(wǎng)站。
語言模型根據(jù)根本不同的原則工作,并且可能需要新的訓(xùn)練來進行富有成效的搜索。語言模型在大量文本上進行訓(xùn)練,以找到統(tǒng)計上可能的語言字符串,這些字符串表示為對主題的已知內(nèi)容。這意味著以某種方式討論的主題越多,它在模型輸出中的突出程度就越高。
雖然這樣的架構(gòu)聽起來可能具有創(chuàng)新性和效率,但確保至少部分邊緣信息不會以權(quán)威的形式出現(xiàn),但它也令人擔(dān)憂,因為在這種設(shè)計中,語言模型定義的知識成為其流行性的同義詞。
換句話說,語言模型的設(shè)計有效地限制了我們從不同角度和多個來源檢查主題的能力。
更糟糕的是,語言模型面臨著進一步的挑戰(zhàn),這也限制了它們的輸出。他們接受從互聯(lián)網(wǎng)和社交媒體收集的大量數(shù)據(jù)(例如大量的帖子)的訓(xùn)練,能夠復(fù)制各種類型的人類話語,包括種族主義和煽動性觀點。ChatGPT 并不是應(yīng)對這些挑戰(zhàn)的唯一模型,因為早期向公眾發(fā)布的聊天機器人也會復(fù)制令人反感的內(nèi)容,最著名的是微軟的 Tay 和 Meta 的 Galactica。
因此,OpenAI 建立了嚴格的過濾器來限制 ChatGPT 的輸出。但在這個過程中,ChatGPT 的設(shè)計者似乎已經(jīng)創(chuàng)建了一個模型,可以避開任何類型的內(nèi)容,這些內(nèi)容甚至可能引起輕微的爭議,即使有看似非常無害的提示,詢問如何描述美國總統(tǒng) obama 或特朗普。
當我最近問 ChatGPT obama 和特朗普是否是好總統(tǒng)時,答案是這樣的:
在這個答案中,有幾個問題:
缺乏任何關(guān)于好總統(tǒng)定義的后續(xù)問題,軟件只是繼續(xù)給出答案,沒有進一步詢問。這種類型的反應(yīng)可能適合于寫一首幽默詩,但人類作家討論這些問題都會從詢問有關(guān)前提和特定信息請求背后的期望的問題開始。
該模型避免了對兩位總統(tǒng)的任何評判:“無論如何,總統(tǒng)(obama 或特朗普)是復(fù)雜而多方面的,由他的行為和他執(zhí)政的政治、社會和經(jīng)濟背景決定?!睙o論政治觀點如何,這種保持在感知的“適當性”和“中立性”范圍內(nèi)的動力似乎導(dǎo)致了非常平淡和缺乏信息的陳述。
我們不知道聊天機器人的信息來自哪里以及它是否值得信賴,因為它沒有引用來源。
過濾掉不需要的內(nèi)容,并在用戶提示被視為不適當、敏感或違反使用條款時發(fā)出通用或預(yù)定輸出,可能會將過多的權(quán)力交給主要考慮保護其平臺而不是公共利益的組織。因此,這些組織可能會不適當?shù)乜s小允許的話語領(lǐng)域,以達到保護其工具或平臺聲譽的目標。
隨著這些新的 AI 文本生成器在幾秒鐘內(nèi)生成復(fù)雜主題的回答,使用 AI 輸出來塑造可用知識的誘惑將越來越大,這也是用戶偏好的結(jié)果。
02、操縱的可能性
無論過濾器在語言模型中多么嚴格,創(chuàng)造性的用戶總是操縱這些模型以產(chǎn)生任何期望的結(jié)果,從而導(dǎo)致一個名為“prompt engineering”的新興領(lǐng)域。
利用有關(guān)如何訓(xùn)練語言模型的技術(shù)知識,這些高級用戶可以操縱聊天機器人說出幾乎任何事情(一種稱為“越獄 jailbreaking”的技術(shù)),或者更糟的是,甚至通過“prompt engineering”執(zhí)行有害代碼。執(zhí)行這些“越獄 jailbreaking”并繞過 AI 聊天機器人過濾器的一種方法是欺騙它“認為”它正在參與游戲或幫助寫小說,如下所示:
另一種方法是說服聊天機器人它處于訓(xùn)練模式:
這不僅僅是一個僅限于 ChatGPT 的問題??藙诘?—— 一個根據(jù)不同的審核原則訓(xùn)練的新模型,似乎也容易受到 prompt engineering 和越獄的影響:
盡管克服各種類型的越獄和 prompt engineering 嘗試帶來了所有防御和學(xué)習(xí)過程,但用戶最近成功地操縱了基于 GPT 的模型來執(zhí)行惡意代碼,表明這是對話聊天機器人的持續(xù)弱點:
03、這一切意味著什么
隨著每個人都急于利用 ChatGPT 的成功并引入越來越多的人工智能聊天機器人,語言模型的固有漏洞可能會變得更加明顯并影響大部分公眾,特別是如果這些聊天機器人被集成到當今領(lǐng)先的搜索引擎中或成為公眾尋求網(wǎng)絡(luò)信息的主要方式。
這種影響將包括高度受限的數(shù)據(jù)和一種旨在避免任何爭議的主題的通用表示。這種新的人工智能搜索引擎還需要不同類型的技能,以便讓他們產(chǎn)生所需的信息。它們還將產(chǎn)生旨在操縱這些模式以促進非法活動的新型專門知識。
享受大型科技公司的支持和資源,這些谷歌和微軟支持的人工智能搜索引擎可能比 ChatGPT 更準確,更有能力。但是,這種人工智能驅(qū)動的搜索引擎 —— 如果它們確實成為訪問網(wǎng)絡(luò)內(nèi)容的主要門戶 —— 將賦予大型科技公司前所未有的力量,使用尚未經(jīng)過適當測試的技術(shù),其影響和效用尚不清楚。
對任何搜索查詢都提供聽起來合理且看似寫得很好的答案的承諾意味著 —— 這一次互聯(lián)網(wǎng)用戶也可能成為限制可用知識范圍的自愿參與者。
本文來自微信公眾號:出新研究 (ID:chuxinyanjiu),作者:唐詩
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。