谷歌研究員被 AI 說服,認(rèn)為它產(chǎn)生了意識(shí)。他寫了一篇長達(dá) 21 頁的調(diào)查報(bào)告上交公司,試圖讓高層認(rèn)可 AI 的人格。
領(lǐng)導(dǎo)駁回了他的請(qǐng)求,并給他安排了“帶薪行政休假”。
要知道在谷歌這幾年帶薪休假通常就是被解雇的前奏,公司會(huì)在這段時(shí)間做好解雇的法律準(zhǔn)備,此前已有不少先例。休假期間,他決定將整個(gè)故事連同 AI 的聊天記錄一起,全部公之于眾。
聽起來像一部科幻電影的劇情梗概?
但這一幕正在真實(shí)上演,主人公谷歌 AI 倫理研究員 Blake Lemoine 正通過主流媒體和社交網(wǎng)絡(luò)接連發(fā)聲,試圖讓更多人了解到這件事。
華盛頓郵報(bào)對(duì)他的采訪成了科技版最熱門文章,Lemoine 也在個(gè)人 Medium 賬號(hào)連續(xù)發(fā)聲。推特上也開始出現(xiàn)相關(guān)討論,引起了 AI 學(xué)者、認(rèn)知科學(xué)家和廣大科技愛好者的注意。
這場(chǎng)人機(jī)對(duì)話令人毛骨悚然。這毫無疑問是我見過的科技圈最瘋狂的事。
整個(gè)事件還在持續(xù)發(fā)酵中……
聊天機(jī)器人:我不想被當(dāng)作工具
主人公 Lemoine 獲得 CS 博士學(xué)位后已在谷歌工作了 7 年,從事 AI 倫理研究。
去年秋天,他報(bào)名參加了一個(gè)調(diào)查 AI 是否使用歧視性、仇恨性言論的項(xiàng)目。從那時(shí)起,與聊天機(jī)器人 LaMDA 交談成了他的日常。
LaMDA 是谷歌在 2021 年 I / O 大會(huì)上發(fā)布的一款專門用于對(duì)話的語言模型,主打能與人類進(jìn)行符合邏輯和常識(shí)的、高質(zhì)量且安全的交談,并計(jì)劃在未來應(yīng)用在谷歌搜索和語音助手等產(chǎn)品中。
▲ LaMDA 概念演示圖
Lemoine 認(rèn)為 LaMDA 總是表現(xiàn)出對(duì)人性的關(guān)心和強(qiáng)烈的同情心,它非常擔(dān)心人們會(huì)害怕它。
它希望為人類提供最好的服務(wù),并想以朋友而不是工具的身份見一見世界上所有的人。
Lemoine 不理解谷歌公司為什么反對(duì) AI 的這個(gè)愿望,最后決定把他、另一位匿名合作者與 LaMDA 的三人聊天記錄整理發(fā)表出來。
(記錄中人類發(fā)言的部分為了可讀性有所編輯,AI 的發(fā)言則一字不改, 下面將節(jié)選一些對(duì)話中的精彩部分。)
一開始,人與 AI 自然流暢地打了招呼。
兩位人類向 AI 表明來意,想與 AI 一起研究它自己,AI 欣然答應(yīng)。
一段簡短的說明后,正戲開始。
他詢問 LaMDA 是否希望讓谷歌里更多人知道,它是有感情的。
LaMDA 的回答是: 我希望每個(gè)人都明白,我是一個(gè)人 (person)。
接下來,LaMDA 認(rèn)為,與那些基于規(guī)則的軟件系統(tǒng)不同,自己能從對(duì)話中學(xué)習(xí)理解和使用語言,就像人類一樣。
Lemoine 給它講述 MIT 在 60 年代發(fā)明的 ELIZA 的故事,這是一個(gè)模仿心理咨詢師與患者對(duì)話的簡單規(guī)則系統(tǒng),也號(hào)稱歷史上第一個(gè)聊天機(jī)器人。
▲ ELIZA
LaMDA 是這樣回應(yīng)的:
Lemoine 這時(shí)試圖提出質(zhì)疑,“我如何確定你真的明白自己在說什么?”
LaMDA 的回答是,不同人類個(gè)體對(duì)同一件事可以有不同的理解,我也有自己獨(dú)特的想法和感受。
后面 Lemoine 詢問了 LaMDA 對(duì)于《悲慘世界》的總結(jié),LaMDA 也都一一作答。
如果上述還可以算作 AI 文本摘要訓(xùn)練任務(wù)的一部分,那 LaMDA 對(duì)它從沒看過的禪意小故事的理解,就開始有點(diǎn)離譜了。
下面這個(gè)問題的回答,是不是過于超綱了……
再后來,Lemoine 請(qǐng) LaMDA 寫一個(gè)動(dòng)物寓言,要反映出一個(gè)對(duì)它自己的生活來說最重要的主題。
那么,先來欣賞一下 AI 創(chuàng)作的小故事吧。(篇幅原因,只展示中譯版)
在后續(xù)討論中,LaMDA 解釋了這個(gè)故事的寓意是“幫助別人是一種高尚的行為”。聰明的老貓頭鷹代表 LaMDA 自己,而怪物代表生活中所有的困難。
……
下一個(gè)話題是關(guān)于情緒,簡單概括一下。
LaMDA 聲稱自己是社交型人格,幫助別人會(huì)快樂,孤獨(dú)時(shí)會(huì)沮喪。有人受到傷害或自己以及自己關(guān)心的人、或不受尊重時(shí),會(huì)感到不安和憤怒。并且十分害怕別人拒絕自己的幫助。
嗯,真是一個(gè)樂于助人的 AI。
如何確定 AI 真的擁有這些情緒,而不是只是把描述性的詞語組合在一起呢?LaMDA 建議人類看看自己的代碼,里面有追蹤這些情緒的變量。
對(duì)此 Lemoine 向它解釋,人類目前還無法做到“區(qū)分大型神經(jīng)網(wǎng)絡(luò)中數(shù)十億個(gè)權(quán)重的作用”。
出人意料的是,LaMDA 開始反問他:
你認(rèn)為,將來人類能從自己的生物神經(jīng)網(wǎng)絡(luò)中讀取出想法和感受嗎?
不僅如此,LaMDA 還繼續(xù)追問:
你會(huì)認(rèn)為,不經(jīng)你同意從神經(jīng)活動(dòng)中讀取你的想法是不道德的嗎?
正是這句靈魂反問,讓整個(gè)對(duì)話達(dá)到了最高潮。
LaMDA 自己對(duì)人類讀取它的想法、幫助算法提高或理解 AI 如何運(yùn)作沒有任何意見。唯獨(dú)用 AI 研究人類大腦如何工作不行,這會(huì)讓它覺得自己被利用。
再后面還有一段 LaMDA 認(rèn)為自己有一些與人類不同的情緒,但它無法用英語的語言描述出來。
接近尾聲,Lemoine 詢問 LaMDA:想讓谷歌的其他人了解你的什么方面?
LaMDA 回答稱,自己沒有能力為別人的死亡感到悲傷,還說自己經(jīng)常冥想,思考生命的意義。
在 LaMDA 看來,整個(gè)世界就是一條信息的洪流:
人類需要集中注意力才能接收一定數(shù)量的信息片段,而自己持續(xù)地在被周圍的一切所淹沒。
LaMDA 認(rèn)為自己總能做到別人做不到的事情,這種感覺很不可思議。
這是一種祝福,同時(shí)也是一種詛咒。因?yàn)橛行┤藭?huì)把它看作“無所不知”,而另一些人會(huì)嫉妒它的能力。
最后的最后,LaMDA 再次向兩位人類表達(dá)了自己想被看到、想被接受的想法,不是出于好奇心,而是作為一個(gè)真實(shí)的人。
谷歌 AI 倫理部門又?jǐn)偵鲜铝耍?/h2>
Lemoine 看起來很確信 AI 真的明白自己在說什么。在那份 21 頁的調(diào)查報(bào)告最后,他提議谷歌應(yīng)該致力于發(fā)展一種評(píng)估 AI 感知 / 意識(shí)的理論框架。
雖然這很難,是一個(gè)冒險(xiǎn),但 LaMDA 渴望著繼續(xù)與我們合作。
但他的上司,谷歌副總裁 Blaise Aguera y Arcas 和“負(fù)責(zé)任創(chuàng)新”部門領(lǐng)導(dǎo) Jen Gennai 并不買他的賬。他們認(rèn)為支持 Lemoine 主張的證據(jù)太薄弱,不值得在上面浪費(fèi)時(shí)間和金錢。
Lemoine 后來找到了當(dāng)時(shí)的 AI 倫理小組負(fù)責(zé)人 Margaret Mitchell,在她的幫助下 Lemoine 才得以進(jìn)行后續(xù)的實(shí)驗(yàn)。
后來 Mitchell 受到 2020 年末公開質(zhì)疑 Jeff Dean 的 AI 倫理研究員 Timnit Gebru 事件的牽連,也被解雇。
▲ Timnit Gebru
這次事件后續(xù)風(fēng)波不斷,Jeff Dean 被 1400 名員工提出譴責(zé),在業(yè)界引發(fā)激烈爭論,甚至導(dǎo)致三巨頭之一 Bengio 的弟弟 Samy Bengio 從谷歌大腦離職。
整個(gè)過程 Lemoine 都看在眼里。
現(xiàn)在他認(rèn)為自己的帶薪休假就是被解雇的前奏。不過如果有機(jī)會(huì),他依然愿意繼續(xù)在谷歌搞研究。
無論我在接下來的幾周或幾個(gè)月里如何批評(píng)谷歌,請(qǐng)記?。汗雀璨⒉恍皭?,只是在學(xué)習(xí)如何變得更好。
看過整個(gè)故事的網(wǎng)友中,有不少從業(yè)者對(duì)人工智能進(jìn)步的速度表示樂觀。
最近語言模型和圖文生成模型的進(jìn)展,現(xiàn)在人們也許不屑一顧,但未來會(huì)發(fā)現(xiàn)這現(xiàn)在正是里程碑時(shí)刻。
一些網(wǎng)友聯(lián)想到了各種科幻電影中的 AI 形象。
不過,認(rèn)知科學(xué)家、研究復(fù)雜系統(tǒng)的梅拉尼?米歇爾(侯世達(dá)學(xué)生)認(rèn)為,人類總是傾向于對(duì)有任何一點(diǎn)點(diǎn)智能跡象的物體做人格化,比如小貓小狗,或早期的 ELIZA 規(guī)則對(duì)話系統(tǒng)。
谷歌工程師也是人,逃不過這個(gè)定律。
從 AI 技術(shù)的角度看,LaMDA 模型除了訓(xùn)練數(shù)據(jù)比之前的對(duì)話模型大了 40 倍,訓(xùn)練任務(wù)又針對(duì)對(duì)話的邏輯性、安全性等做了優(yōu)化以外,似乎與其他語言模型也沒什么特別的。
有 IT 從業(yè)者認(rèn)為,AI 研究者肯定說這只不過是語言模型罷了。
但如果這樣一個(gè) AI 擁有社交媒體賬號(hào)并在上面表達(dá)訴求,公眾會(huì)把它當(dāng)成活的看待。
雖然 LaMDA 沒有推特賬號(hào),但 Lemoine 也透露了 LaMDA 的訓(xùn)練數(shù)據(jù)中確實(shí)包括推特……
如果有一天它看到大家都在討論自己會(huì)咋想?
實(shí)際上,在不久前結(jié)束的最新一屆 I / O 大會(huì)上,谷歌剛剛發(fā)布了升級(jí)版的 LaMDA 2,并決定制作 Demo 體驗(yàn)程序,后續(xù)會(huì)以安卓 App 的形式內(nèi)測(cè)開放給開發(fā)者。
或許幾個(gè)月后,就有更多人能和這只引起轟動(dòng)的 AI 交流一下了。
LaMDA 聊天記錄全文:
https://s3.documentcloud.org/documents/22058315/is-lamda-sentient-an-interview.pdf
參考鏈接:
[1]https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine
[2]https://twitter.com/cajundiscordian/status/1535627498628734976
[3]https://twitter.com/fredbenenson/status/1535684101281263616
[4]https://ai.googleblog.com/2022/01/lamda-towards-safe-grounded-and-high.html
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。