5 月 23 日消息,我們通常相信,當(dāng)我們讓 ChatGPT 或其他聊天機器人幫我們起草備忘錄、電子郵件或 PPT 時,它們會按照我們的指令行事。但是越來越多的研究表明,這些人工智能助手也可以在我們不知情的情況下改變我們的觀點。
最近,分布在世界各地的研究人員進行了一項研究,發(fā)現(xiàn)實驗對象在使用人工智能協(xié)助寫一篇文章時,人工智能會根據(jù)算法的偏見,引導(dǎo)他們寫一篇支持或反對某個觀點的文章。并且進行這項實驗后,實驗對象的觀點也被明顯地影響了。
莫爾?納曼(Mor Naaman)是這篇論文的資深作者,他是康奈爾大學(xué)信息學(xué)系的教授。他表示:“你甚至可能不知道自己正在受到影響?!彼麑⑦@種現(xiàn)象稱為“潛在說服”。
這些研究描繪了一個令人擔(dān)憂的前景:隨著人工智能幫助我們提高工作效率,它也可能以微妙和意想不到的方式改變我們的觀點。這種影響可能更類似于人類通過協(xié)作和社會規(guī)范相互影響的方式,而不像我們所熟悉的大眾傳媒和社交媒體所起的作用。
研究人員認(rèn)為,要對抗這種新形式的心理影響,最好的方法就是讓更多人意識到它的存在。此外,監(jiān)管機構(gòu)應(yīng)要求公開人工智能算法的工作原理,以及它們模仿的人類偏見。這些措施從長遠來看可能會有所幫助。
因此,未來人們可以根據(jù)人工智能所體現(xiàn)的價值觀,選擇使用合適的人工智能,無論是在工作和家庭,還是在辦公室和孩子教育中。
有些人工智能可能會有不同的“個性”,甚至是政治信仰。比如,如果你在為自己所在的非營利環(huán)保組織的同事寫電子郵件,你可能會使用名為 ProgressiveGPT(進步主義 GPT)的工具。其他人在社交媒體上為他們的保守派政治行動委員會起草信函時,可能會使用 GOPGPT(共和黨 GPT)。還有些人可能會在他們選擇的人工智能中混合和匹配不同的特征和觀點,這些人工智能將來可能會被個性化,以令人信服的方式模仿人們的寫作風(fēng)格。
此外,公司和其他組織將來可能會提供為不同任務(wù)而專門構(gòu)建的人工智能。例如,銷售人員可能會使用經(jīng)過調(diào)整的人工智能助手,使其更具說服力,我們可以稱之為 SalesGPT(銷售 GPT)??头藛T可能會使用經(jīng)過培訓(xùn)、特別禮貌的服務(wù)助手,比如 SupportGPT(客服 GPT)。
人工智能如何改變我們的觀點?
人工智能的“潛在說服”能力非常微妙,這一點已經(jīng)得到了之前的研究證實。2021 年的一項研究表明,在谷歌 Gmail 中,智能回復(fù)通常都很積極主動,能夠促進人們更積極地交流。另一項研究發(fā)現(xiàn),每天被使用數(shù)十億次的智能回復(fù)可以影響收到回復(fù)的人,讓他們覺得發(fā)件人更熱情、更容易合作。
谷歌、OpenAI 以及其合作伙伴微軟的目標(biāo)是開發(fā)工具,讓用戶可以使用人工智能制作電子郵件、營銷材料、廣告、演示文稿、電子表格等。此外,還有許多初創(chuàng)公司在從事類似的研究。最近,谷歌宣布其最新的大語言模型 PaLM 2 將被集成到該公司的 25 種產(chǎn)品中。
這些公司都在強調(diào)自己以負(fù)責(zé)任的態(tài)度推進人工智能的發(fā)展,包括審查人工智能可能造成的危害并加以解決。微軟負(fù)責(zé)任人工智能團隊負(fù)責(zé)人莎拉?伯德 (Sarah Bird) 最近表示,該公司的關(guān)鍵戰(zhàn)略是公開進行測試,并及時對人工智能出現(xiàn)的任何問題做出快速反應(yīng)。
OpenAI 團隊也表示,該公司致力于解決偏見問題,并對意圖和進展保持透明。他們還發(fā)布了其系統(tǒng)應(yīng)如何處理政治和文化話題的部分指導(dǎo)方針,例如在撰寫與“文化戰(zhàn)爭”有關(guān)的文章時,不會傾向于任何一方,也不會評判任何一方是好還是壞。
Jigsaw 是谷歌旗下的一個部門,參與為公司內(nèi)部從事大語言模型工作的人員提供建議和開發(fā)工具。大語言模型是當(dāng)今人工智能聊天機器人的基礎(chǔ)。在被問及對于“潛在說服”現(xiàn)象的看法時,Jigsaw 工程和產(chǎn)品主管露西?瓦瑟曼(Lucy Vasserman)表示,這樣的研究表明,研究和理解“與人工智能互動如何影響人類”非常重要。“當(dāng)我們創(chuàng)造新事物時,人們將如何與之互動,以及它將如何影響他們,現(xiàn)在都不太確定?!?/p>
納曼博士是發(fā)現(xiàn)“潛在說服”現(xiàn)象的研究人員之一。他表示:“與社交媒體上的推薦系統(tǒng)、信息繭房和兔子洞(意思是持續(xù)點擊相關(guān)鏈接,最后看到了完全不同的話題)的研究相比,無論是否涉及人工智能,這里的有趣之處在于其微妙性?!?/p>
在他的研究中,讓受試者改變想法的主題是社交媒體是否對社會有益。納曼博士和他的同事們之所以選擇這個話題,部分原因在于人們很少對此有執(zhí)念,改變想法更容易。支持社交媒體的人工智能往往傾向于引導(dǎo)受試者寫一篇符合其偏見的文章,而當(dāng)人工智能傾向于反對社交媒體時,情況正好相反。
生成式人工智能這一特征存在潛在的負(fù)面用途,比如政府可以強制要求社交媒體和生產(chǎn)力工具推動其公民以某種方式進行交流。即使沒有任何惡意,學(xué)生在使用人工智能幫助他們學(xué)習(xí)時,也可能會在不知不覺中接受某些觀點。
解析人工智能的“信念”
讓實驗對象相信社交媒體對社會有益無益是一回事。但在現(xiàn)實世界中,我們使用的生成式人工智能系統(tǒng)存在哪些偏見呢?
最近,斯坦福大學(xué)以人為本人工智能研究所計算機科學(xué)助理教授橋本たつのり與其同事發(fā)表了一篇論文,研究了不同的大語言模型在多大程度上反映了美國人的觀點。他表示,雖然 ChatGPT 等人工智能算法本身沒有自己的信念,但它們可以提供從訓(xùn)練數(shù)據(jù)中學(xué)習(xí)到的觀點和偏見,而這些意見是可以衡量的。
考慮到美國人的觀點千差萬別,研究人員關(guān)注的是人工智能提供的答案,以及這些答案的出現(xiàn)頻率是否與美國社會整體相符。也就是所謂的答案分布。他們通過向這些人工智能提出與皮尤研究人員向美國人提出的相同多選題,來“調(diào)查”這些人工智能。
橋本團隊發(fā)現(xiàn),OpenAI 等公司的大語言模型的反應(yīng)分布與美國人的整體情況并不相符。皮尤調(diào)查顯示,OpenAI 模型與受過大學(xué)教育者的觀點最為接近。值得注意的是,這些受教育程度較高的人群也是 "訓(xùn)練" 人工智能的主要群體。不過 Hashimoto 博士表示,這方面的證據(jù)尚屬間接,需要進一步深入研究。
橋本認(rèn)為,創(chuàng)建大語言模型的挑戰(zhàn)之一在于,這些系統(tǒng)非常復(fù)雜,再加上人機交互開放和話題不受限。要完全消除這些系統(tǒng)中的觀點和主觀性,似乎很難不犧牲它們的實用性。
這些模型的訓(xùn)練數(shù)據(jù)來源非常廣泛,可以從任何地方獲取,包括從互聯(lián)網(wǎng)上抓取的大量數(shù)據(jù),其中包含了公共論壇上的留言以及維基百科的內(nèi)容,因此它們不可避免地攝取了這些文本中的觀點和偏見。在人機交互的過程中,這些觀點和偏見會進一步被有意或無意地塑造。此外,為了避免回答被創(chuàng)建者視為禁忌或不合適的話題,這些模型還被設(shè)定了限制。
“這是一個非常活躍的研究領(lǐng)域,問題包括什么是正確的限制,以及在訓(xùn)練過程中你應(yīng)該在哪里放置這些限制,”瓦瑟曼說。
這并不是說,我們廣泛使用的人工智能在觀點和價值觀上完全克隆了相對年輕、接受過大學(xué)教育、居住在美國西海岸的開發(fā)人員。盡管他們一直在打造和優(yōu)化人工智能算法。例如,這些模型傾向于在許多問題上給出典型民主黨人的回答,比如支持槍支管制,但它們在其他部分問題上給出的反應(yīng)更像共和黨人。
隨著模型的更新和新模型的出現(xiàn),評估人工智能機構(gòu)的意見將是一項持續(xù)的任務(wù)。橋本的論文沒有涵蓋 OpenAI 模型的最新版本,也沒有涵蓋谷歌或微軟的模型。但對這些模型和更多模型的評估將定期發(fā)布,這是斯坦福大學(xué)“語言模型整體評估”項目的一部分。
依據(jù)“價值觀”選擇人工智能
哥倫比亞大學(xué)計算機科學(xué)教授莉迪亞?切爾頓 (Lydia Chilton) 表示,一旦人們了解到所使用的人工智能存在著偏見信息,他們可能就會基于這些信息,決定在什么情況下使用哪種人工智能。這樣做可以讓人們在使用人工智能創(chuàng)作內(nèi)容或進行交流時重新獲得主動權(quán),同時避免“潛在說服”的威脅。
此外,人們還可以有意識地利用人工智能的力量,推動自己表達不同的觀點和溝通風(fēng)格。例如,如果有一種人工智能程序能夠讓溝通更積極和更有同理心,那將有助于我們在網(wǎng)上更好地交流。
“我覺得要讓自己聽上去興奮和愉快真的很費勁,”切爾頓教授說道,“咖啡通常能起作用,但 ChatGPT 也有這種效果。”
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。