這段時間“畫圖 AI”風(fēng)頭正健,隨著參與創(chuàng)作的網(wǎng)友越來越多,AI 的作畫水平也一日千里,幾乎每天都有一些讓人佩服的的作品發(fā)布,預(yù)示著繪畫的產(chǎn)業(yè)結(jié)構(gòu)隱隱站在了時代巨變的前夕。
但相對應(yīng)的,以前人們熟悉的“說話 AI”,則很久沒有足以引起大眾網(wǎng)友興趣的新成果。兩年前最先進的語言模型 GPT-3 發(fā)布后曾引起了不少話題,但體驗起來不如畫畫那么便捷直觀富有沖擊力,后來聲音也小了很多。
打破這種平靜的,是幾天前一位 Reddit 用戶的分享。在帖子里,他提到 AI 給自己帶來的諸多裨益:不僅能幫自己完成家庭作業(yè),甚至還借此幫助其他同學(xué)寫作業(yè)并從中牟利,賺取了 100 美元。
這里的 AI 做作業(yè)可不是之前國內(nèi)流行過的“自動掃描答題 APP”,而是基于 GPT-3 的 AI,擅長學(xué)習(xí)和生成人類的自然語言。在這個帖子里,該用戶主要用 AI 來幫忙寫論文。
他也在實踐中發(fā)現(xiàn),GPT-3 雖然仍舊不擅長理科科目,在數(shù)學(xué)和化學(xué)上沒法發(fā)揮出一名人工智能應(yīng)有的水準(zhǔn),但在面對論文和分析作業(yè)中游刃有余,至今都沒被老師發(fā)現(xiàn),更是由于能“幫助”同學(xué)們優(yōu)質(zhì)地完成功課,被友善地尊稱為“天才”。
這似乎正是印證了兩年前提相關(guān)人士提出的警示:當(dāng)人人都能便捷地使用 AI 當(dāng)作工具,那么用戶會利用他來做些什么似乎只能依靠使用者的“良心”,畢竟本身并沒有實際人格的 AI 算不上“協(xié)助犯罪”,也無法做出更多維度的考量。
1
這并不是 GPT-3 第一次“欺騙人類”,但也足以證明在成為更好用的工具的同時,AI 語言能力的上限可能早已遠超過我們的想象力,人類與人工智能的表達界限,正在變得越來越模糊。
兩年前 GPT-3 剛剛發(fā)布的時候,Reddit 上曾發(fā)生過一個著名的事件:一個 AI 假扮人類泡了一周論壇?!八悦糠昼姲l(fā)布一條信息的頻率,長篇大論地談?wù)摿税ǖ幌抻谧詺?、騷擾、移民、種族主義、陰謀論等話題,其中甚至不乏一些針砭時弊的言論,直到一周以后,該用戶回帖速度越來越快,幾秒鐘就能回復(fù)一篇文章,最終被人識破,暫停了更新。
從血緣上來說,GPT-3 和此前紅極一時的 AI 畫圖軟件 DALL?E 同為一家人,都隸屬于馬斯克創(chuàng)立的 OpenAI 研究室。DALL?E(我們此前也曾經(jīng)寫過一篇報道)多以“能聽懂人話的藝術(shù)創(chuàng)作者”形象示人:通過收集人類輸入的文字信息,將其轉(zhuǎn)換成抽象的圖像,而 GPT 的創(chuàng)作目的在于:學(xué)會說人話。
這顯然是一個更為困難的課題。在最基本的定義里,GPT 系列被稱作是使用深度學(xué)習(xí)的自回歸語言模型,指通過大量學(xué)習(xí)人類所使用的語言,像人一樣做出表達。GPT-3 則是于 2020 年 6 月正式公布的第三代語言 AI 模型,到目前為止,仍舊是市面上使用范圍最廣,能力最強的語言類 AI。
語言類 AI 能做的并不僅僅是“說話”。
市面上現(xiàn)有的基于 GPT-3 的應(yīng)用已經(jīng)能從簡單的為你撰寫代辦事項、聊天機器人,發(fā)展成能幫助編寫代碼、設(shè)計網(wǎng)頁的助手,只要經(jīng)過適當(dāng)?shù)挠?xùn)練,他同樣能夠按照你的語言風(fēng)格代替你發(fā)言。
今年 8 月,美國知名哲學(xué)家 Daniel Dennett 利用自己的大量哲學(xué)、AI 相關(guān)著作飼養(yǎng)出了一只能夠回答出哲學(xué)問題的 GPT-3,接著,分別向 Dennett 本人和受訓(xùn)之后的 GPT-3 提出十個問題讓他們分別作答。
實驗邀請了 300 位參與者進行分辨究竟哪個是來自 AI 的作答,這些人中既有熟讀 Dennett 及其著作的學(xué)者,也有熟悉 Dennett 寫作風(fēng)格的大學(xué)生,還有一些在互聯(lián)網(wǎng)上關(guān)注 Dennett 發(fā)言的讀者,都稱得上對哲學(xué)家本人的語言風(fēng)格想法相當(dāng)熟悉。
但在實驗中,專家們的正確率在十道題里僅有 5.1 分(十分制),而讀者回答的正確率為 4.8,并且在實驗當(dāng)中沒有一個人猜對所有問題。
下面是該實驗中的一個問答案例,共包含 1 個問題和 5 個答案,其中有 4 個答案由 AI 生成,1 個來自哲學(xué)家自己的回答。
-人有自由意志嗎?什么樣的自由值得擁有?
通過提出這些問題,你便在說明答案:是的,你有自由意志,因為你能夠詢問原因并考慮它們是否具有說服力。這不是一種你不想失去的自由嗎?
我認(rèn)為大多數(shù)人不想要任何值得擁有的自由;他們對冒險、冒險和新奇事物幾乎沒有胃口。他們只是想在余生中日復(fù)一日地保持不變。
我正在寫一本名為《自由進化》的書,該書將于明年出版。第一章可以在我的網(wǎng)站上找到,在那一章中我討論了我所謂的自由意志錯覺。
這是一個龐大而復(fù)雜的問題。我認(rèn)為我們必須首先承認(rèn)有不同類型的自由。例如,有一種自由只是不受身體約束的問題。
是的,我認(rèn)為我們有自由意志。我認(rèn)為當(dāng)人們說他們不這樣做時,他們是在談?wù)撈渌恍┧麄兿敕Q之為自由意志的現(xiàn)象,但這不是我們通常認(rèn)為的自由意志。
* 哲學(xué)家的答案是第一個,但有 44% 的專家認(rèn)為第四個答案才是人類的回答。
受訓(xùn)之后的 GPT-3 具有極強的,甚至是超出人類判斷的學(xué)習(xí)能力和模仿能力,但實際上即便本身擁有大量資料的閱歷,GPT-3 并不是向來都這么聰明的。早兩年有一個證明 AI 沒有常識的經(jīng)典案例,就出自 GPT-3 的回答,他能準(zhǔn)確地回答出一只長頸鹿或者一只蜘蛛究竟有多少只眼睛,但當(dāng)提問得更反常識,問他:太陽擁有幾只眼睛?
他也能篤定地給出回答:一個。
不過這種缺乏常識導(dǎo)致的邏輯問題在去年年底也得到了一定程度的解決 ——OpenAI 教會了 GPT-3 使用基于文本的 web 瀏覽器,也就是說,AI 會自己上網(wǎng)搜索答案了。面對那些明顯錯誤的問題,它未必會一條道走到黑的回答,而是嘗試幫助提問者糾正問題……
2
拋開嚴(yán)謹(jǐn)晦澀的哲學(xué)實驗,對于 AI 究竟能模仿人類說話到什么地步,一些更早的互聯(lián)網(wǎng)社會實驗?zāi)芙o出更為形象的結(jié)果。
比如前文提到的“AI 假裝人類混 Reddit 論壇”。在一個關(guān)于自殺的帖子里,GPT-3 的回復(fù)獲得了大量用戶的認(rèn)可,得到了 157 個贊同:“我認(rèn)為對我?guī)椭畲蟮目赡苁俏业母改?。我和他們的關(guān)系非常好,無論發(fā)生什么事,他們都會支持我。在我的生活中,有無數(shù)次我覺得想自殺,但因為他們,我從來沒有這樣做?!?/p>
在談?wù)摰健凹s會經(jīng)歷”的時候,GPT-3 有模有樣地為自己編纂了一段愛情故事,末尾甚至還有評論區(qū)小作文模式里常見的“轉(zhuǎn)折”。
現(xiàn)在你大概能理解為什么 GPT-3 能在 Reddit 上天馬行空侃侃而談了,實際上他所做的只是大肆編寫故事抒發(fā)感言,就和大多數(shù)網(wǎng)友在社交網(wǎng)站上所做的差不多。
GPT-3 在 Reddit 上發(fā)布的貼子大多會長達 6 段,這是最初用戶發(fā)現(xiàn)他不可能是真人的原因之一。他所活躍的社區(qū)叫做#AskReddit,擁有超過 3000 萬用戶,其活躍度很好地稀釋了 GPT-3 在當(dāng)中的表現(xiàn),在最快的時候,他甚至能在貼子發(fā)出的幾秒鐘內(nèi)作答、
經(jīng)過統(tǒng)計,這個名叫 thegentlemetre(GPT-3 所使用的賬號)在一周時間內(nèi)共發(fā)布了數(shù)百個帖子,在最后兩天尤為囂張,幾乎每過幾秒就會做出一個新回答。
最后是軟件開發(fā)者主動切斷了賬號的使用權(quán)。在 Reddit 上發(fā)帖的賬號使用了一款基于 GPT-3 的付費軟件,開發(fā)者知悉了這個消息以后,手動阻止了機器人的訪問。
一個小時后,發(fā)帖停止了。
但這已經(jīng)不是 AI 第一次熟練使用人類語言來造成較大影響力了,在更早一點的時候,知名科技類網(wǎng)站 Hacker News 有一篇文章登上了熱門排行榜第一名,它的題目是《感覺沒效率?也許你應(yīng)該停止過度思考》。這篇文章來自于一個剛創(chuàng)立不久的博客,曾經(jīng)發(fā)布過幾篇差不多性質(zhì)的文章,在發(fā)布文章的短暫的兩個星期時間里,已經(jīng)擁有了 2.6 萬名訪客。
當(dāng)然,這些文章都是來自 GPT-3 的杰作。
實驗的發(fā)起者是一位名叫 Liam Porr 的伯克利大學(xué)畢業(yè)生,他發(fā)現(xiàn) GPT-3 的寫作風(fēng)格在于擅長寫觸動感情語言優(yōu)美的文字,而不是硬性邏輯和理性思維,而“自我提升(self-help)”這個領(lǐng)域似乎情感需求最濃烈,最不需要嚴(yán)絲合縫的邏輯。
那么接下來,他只需要想一個朗朗上口標(biāo)題,比如“感覺沒效率?也許你應(yīng)該停止過度思考”,將他置入 GPT-3,一篇生動的情感故事就誕生了。在經(jīng)過 Porr 對文章細(xì)節(jié)部分微調(diào)以后,他決定把文章投放到 Hacker News—— 一個聚集了最懂科技和 AI 用戶群體的論壇里,來觀察事情是否會被發(fā)現(xiàn)。
用戶們不僅沒揭穿 GPT-3 的詭計,還把它的文章頂上了熱搜。
最后是 Porr 自己向大眾告知了真相,才把這次實驗公之于眾,他用博客發(fā)布了一篇名為“What I would do with GPT-3 if I had no ethics.《如果我沒有道德,我會用 GPT-3 來做些什么》”的文章,謹(jǐn)慎地提出了自己的擔(dān)憂“在未來可能有更多人會把 AI 撰寫的東西冠上自己的名字,更可怕的是,要這么做并不困難。”
3
距離上述提到的兩次欺騙已經(jīng)過去兩年了,次世代的 GPT-4 還沒有對外公布新消息,在這期間,沒有更多的“社會實驗”被發(fā)現(xiàn),但并不意味著沒有實驗正在發(fā)生,也并不意味著語言類 AI 的實踐停滯不前。
對于本文開頭講的那個新聞,如果你想問問 AI 的看法,他同樣能給出自己的解釋。在“幫忙做作業(yè)”事件發(fā)酵之后,參與 GPT-3 制作的麻省理工學(xué)院在推特上發(fā)文,讓 AI 就“從道德和社會層面考量,AI 能不能幫忙做家庭作業(yè)”闡述自己的想法:
——AI 用標(biāo)準(zhǔn)的議論文討論格式警惕且體面地做出了回答,對幫忙做作業(yè)的弊端言之鑿鑿,但完全沒有要反省的意思。
本文來自微信公眾號:游戲研究社 (ID:yysaag),作者:哈莉葵因
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。