呼吁暫停 GPT-5 的公開信發(fā)出后,沉默許久的 Bengio 發(fā)了長文,解釋自己簽字的原因,而 LeCun 繼續(xù)強(qiáng)調(diào),現(xiàn)在的擔(dān)憂根本是杞人憂天,與 AI 末日論者辯論毫無意義。
呼吁暫停比 GPT-4 更強(qiáng) AI 訓(xùn)練的公開信,把超強(qiáng) AI 的種種爭議,更加激烈地推到了公開的臺面上。
這幾日,后續(xù)激辯不斷,幾方立場愈發(fā)兩極分化。
而公開信的簽名人數(shù),也從最初的 1000 出頭,猛增到了近 1.6 萬。
面對接踵而至的指責(zé)和質(zhì)疑的聲浪,OpenAI 匆忙在凌晨發(fā)文回應(yīng):我們會堅(jiān)決保障 AI 安全,絕不「偷工減料」!
圖靈三巨頭之一的 Bengio,昨天專門在自己的博客上寫了一篇長文,解釋自己為什么簽名贊成暫停超強(qiáng) AI 研發(fā)。
而另一巨頭 LeCun 一再表示,這種暫停根本就沒有必要,而且與 AI 末日論者辯論真的毫無意義。
在與眾網(wǎng)友舌戰(zhàn)多日后,他將于明天和吳恩達(dá)親自出鏡,向大眾公開解釋為什么他們不贊同暫停訓(xùn)練超強(qiáng) AI 6 個(gè)月。
LeCun:與 AI 末日論者辯論毫無意義
今日,LeCun 發(fā)推再次強(qiáng)調(diào)自己的立場:人類需要機(jī)器智能。
「歷史一再表明,智能越多,社會和人類的福祉就會越多:我們會擁有更好的技能、讀寫能力、教育、創(chuàng)造力、文化、溝通和思想的自由交流?!?/p>
「人類和機(jī)器的智能是進(jìn)步的動(dòng)力?!?/p>
「機(jī)器智能是增強(qiáng)人類智能的一種方式,就像機(jī)械工具增強(qiáng)人類體能一樣。」
在他看來,擔(dān)心 AI 會滅絕人類,這種想法非?;闹嚒?/p>
「人們對 AI 風(fēng)險(xiǎn)過度擔(dān)憂的唯一原因,就是這個(gè)神話:當(dāng)你打開一個(gè)超級智能系統(tǒng)的那一刻,人類就注定要滅亡。這是荒謬的愚蠢,基于對 AI 運(yùn)作方式徹底的誤解?!?/p>
而且,今天關(guān)于 AI 安全的討論,跟 1890 年關(guān)于客機(jī)安全的討論一樣,全是推測性的。
「在我們擁有可靠達(dá)到人類智能水平的 AI 系統(tǒng)的基本設(shè)計(jì)和演示之前,關(guān)于它們的風(fēng)險(xiǎn)和安全機(jī)制的爭論還為時(shí)過早。」
有網(wǎng)友在評論區(qū)中問他,Hinton 的訪談你聽了嗎?
LeCun 表示:我和 Hinton 都是 37 年的朋友了,我們在很多事情上都沒有分歧。
他說 AI 接管「并非不可想象」,我不反對。但我相信,這種事情的概率極低,也很容易預(yù)防。
然后,LeCun 給網(wǎng)友們分享了自己在幾年前與 Bengio、Russell、Zador 等大佬辯論的帖子,告訴大家,這才叫有意義的辯論。
但是,與極端的 AI 末日論者辯論 AI 倫理和安全,就像與神創(chuàng)論者辯論進(jìn)化論一樣,毫無意義。
有網(wǎng)友感謝 LeCun 分享這場辯論,但是強(qiáng)調(diào)有些人就是不相信以利潤為導(dǎo)向的公司會將人類和地球的安全置于利潤之上,把他們稱為 AI 末日預(yù)言者,是武斷和不公平的。
而 LeCun 轉(zhuǎn)發(fā)了這樣一篇論文。
他評論道:「由于擔(dān)心動(dòng)蕩,奧斯曼帝國限制了印刷書籍的傳播。因此,它錯(cuò)過了啟蒙運(yùn)動(dòng),失去了在科學(xué)技術(shù)上的主導(dǎo)地位,并最終失去了經(jīng)濟(jì)和軍事上的影響力?!?/p>
在他看來,阻止 AI 替代我們的高技能工作崗位,也是如此。
Bengio:需要按下暫停鍵
另外,簽署公開信的圖靈三巨頭之一 Yoshua Bengio 在沉默幾天后,首次解釋了自己加入 FLI 呼吁的看法:
一年前我可能不會簽署這樣一封信。正是因?yàn)槿斯ぶ悄馨l(fā)展出現(xiàn)了意想不到的加速,因此我們需要退一步。并且我對這些問題的看法已經(jīng)改變了。
就此,Bengio 在自己的網(wǎng)站上發(fā)表了一篇長文,具體解釋了簽署公開信的原因 —— 技術(shù)進(jìn)步需要放緩,這樣才能確保安全、保護(hù)集體的福祉。
Bengio 認(rèn)為我們已經(jīng)越過了一個(gè)關(guān)鍵的門檻:機(jī)器現(xiàn)在可以和我們對話,甚至假裝成人類。
而且,自從 ChatGPT 發(fā)布以來,大家發(fā)現(xiàn)不那么謹(jǐn)慎守規(guī)矩的玩家會有競爭優(yōu)勢,如果是這樣的話,那么通過降低謹(jǐn)慎和道德監(jiān)督的水平,就可以更容易出頭。
面對更加激烈的商業(yè)競爭,OpenAI 也可能會急于開發(fā)這些巨大的人工智能系統(tǒng),把他們在過去十年的人工智能研究中養(yǎng)成的透明和開放科學(xué)的良好習(xí)慣拋在腦后。
Bengio 表示,簽署這封公開信可以提醒學(xué)界和工業(yè)界:我們必須花時(shí)間更好地了解這些系統(tǒng),并在國家和國際層面制定必要的框架,來增加對公眾的保護(hù)。
即使簽署這封公開信造成的影響可能沒有那么大,但是起碼會掀起一場全社會的討論。我們將不得不在未來幾年做出集體選擇,包括我們想用我們正在開發(fā)的強(qiáng)大工具做什么。
從中短期風(fēng)險(xiǎn)來看,可能是出于政治目的操縱公眾輿論,特別是傳播虛假信息,這很容易預(yù)測;而長期風(fēng)險(xiǎn)就是偏離程序員所設(shè)定的目標(biāo),對人類造成傷害,這種風(fēng)險(xiǎn)很難預(yù)測。
但是這封公開信并不是要叫停所有的 AI 研究,也并不是說 GPT-4 將成為自主的 AI 并威脅到人類。相反,危險(xiǎn)的是懷有不良意圖的人類或根本不知道其行為后果的人類,在未來幾年內(nèi)可能利用這些工具危及人類的未來。
現(xiàn)在,我們需要規(guī)范這些系統(tǒng),提高人工智能系統(tǒng)的透明度和監(jiān)督,保護(hù)社會。風(fēng)險(xiǎn)和不確定性已經(jīng)如此嚴(yán)重,因此我們的治理機(jī)制也要加速發(fā)展。
社會需要時(shí)間來適應(yīng)變化,法律需要時(shí)間來通過,監(jiān)管框架需要時(shí)間來落實(shí)。Bengio 認(rèn)為迅速提高意識,把這個(gè)問題放在更多的場合去進(jìn)行更多的公眾辯論是很重要的。
不過,從根本上來說,Bengio 對技術(shù)是樂觀的,他認(rèn)為技術(shù)將能夠幫助我們克服人類面臨的巨大挑戰(zhàn)。然而,為了面對這些挑戰(zhàn),現(xiàn)在需要的是去思考如何調(diào)整我們的社會,甚至完全重塑它們。
「我們應(yīng)該放棄嗎?當(dāng)然不是。減少對未來的損害,我們總是有辦法做得更好,在正確的方向上的每一步,都會有所裨益?!?/p>
對此,紐約大學(xué)馬庫斯也表示了支持,盡管兩人之前有些意見相左。
馬斯克:這是個(gè)電車難題
另一邊,作為公開信支持者的馬斯克表示,你們這些反對暫停的人就屬于下面這種人:
「另一條路太繞,會減慢 AI 的發(fā)展,不如還是直接碾過去吧。」
而有網(wǎng)友指出了「華點(diǎn)」—— 「如果你沒有將強(qiáng)大的 AI 裝到每一輛特斯拉中,我會更相信你的擔(dān)憂?!?/p>
「為什么過度監(jiān)管某些 AI 模型,而不是實(shí)際的應(yīng)用程序呢?語言模型無法說出或選擇它們『想要』的內(nèi)容,就像特斯拉的 FSD 系統(tǒng)不能自己決定開到哪里。」
LeCun 轉(zhuǎn)發(fā)了該網(wǎng)友的推文,表示同意:「沒錯(cuò),應(yīng)該去規(guī)范應(yīng)用,而不是研發(fā)。」
OpenAI 急忙澄清
眼看 AI 安全已經(jīng)成為眾矢之的,OpenAI 急忙出面,表示自己也很重視 AI 安全。
在昨天發(fā)布的「Our approach to AI safety」的長文中,OpenAI 主要探討了安全地構(gòu)建、部署和使用人工智能系統(tǒng)的方法。
OpenAI 表示,強(qiáng)大的人工智能系統(tǒng)應(yīng)該接受嚴(yán)格的安全評估。
GPT-4 在發(fā)布之前,對其進(jìn)行了嚴(yán)格的測試,內(nèi)部員工耗時(shí) 6 個(gè)月去確保發(fā)布前讓模型更加安全和一致。
并且,還讓外部專家參與反饋,利用人類反饋強(qiáng)化學(xué)習(xí)(RLHF)等技術(shù)改善模型的行為。
另外,文中還列出了其他確保 AI 安全的方法:
- 從真實(shí)世界的使用中學(xué)習(xí),以改進(jìn)保障措施
- 保護(hù)兒童
- 尊重隱私
- 提高事實(shí)的準(zhǔn)確性
最后,OpenAI 提出了應(yīng)該「繼續(xù)研究和參與」。這一點(diǎn)可以說是對近來呼吁暫停超強(qiáng) AI 研發(fā)的正面回應(yīng)。
我們認(rèn)為,解決人工智能安全問題的實(shí)用方法是投入更多的時(shí)間和資源來研究有效的緩解措施和調(diào)整技術(shù),并針對現(xiàn)實(shí)世界的濫用進(jìn)行測試。
暫停六個(gè)月,時(shí)間夠嗎?
根據(jù)一項(xiàng)調(diào)查,69% 的美國成年人強(qiáng)烈支持或在一定程度上支持暫停開發(fā)六個(gè)月,但也有人認(rèn)為這似乎只是徒勞。
而關(guān)心 AI 會毀滅人類這個(gè)話題的人,和不關(guān)心的人,大約各占一半。
參考資料:
https://yoshuabengio.org/2023/04/05/slowing-down-development-of-ai-systems-passing-the-turing-test/
https://twitter.com/GaryMarcus/status/1643754841221783553
本文來自微信公眾號:新智元 (ID:AI_era)
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。