5 月 30 日,世界級紅人埃隆?馬斯克(Elon Musk)發(fā)了一條推文,稱:
2029 年是關(guān)鍵的一年,如果那時候我們還沒有實現(xiàn)通用人工智能(Artifical General Intelligence,AGI),我會覺得很奇怪?;鹦巧系娜藗円惨粯樱ㄓX得奇怪)。
馬斯克發(fā)推不久,知名人工智能科學(xué)家、紐約大學(xué)心理系教授 Gary F. Marcus 立即寫了一篇博文叫囂馬斯克,從五個方面向馬斯克「科普」了通用人工智能的知識,提出自己認(rèn)為 2029 年不可能實現(xiàn) AGI 的原因。
對于 Gary Marcus 的叫板,馬斯克還沒回復(fù)。
圣達(dá)菲研究所的人工智能專家梅蘭妮?米切爾(Melanie Mitchell)建議把賭注放在 longbets.org 網(wǎng)站上,Marcus 稱,只要馬斯克愿意打賭,自己就欣然赴約。
以下是 Gary Marcus 反駁馬斯克的五個角度,AI 科技評論作了不改原意的整理如下:
馬斯克是個「大話」預(yù)言家
第一,馬斯克對時間的預(yù)測總是不太準(zhǔn)確。
2015 年時,馬斯克說距離真正的自動駕駛汽車出現(xiàn)還有兩年時間;從那以后他每年都說同樣的話,但真正的自動駕駛汽車到現(xiàn)在還沒出現(xiàn)。
馬斯克不關(guān)注邊緣案例的挑戰(zhàn)
其次,馬斯克應(yīng)該更多地關(guān)注邊緣情況(也就是異常值,或不尋常的情況)的挑戰(zhàn),并思考這些異常值對預(yù)測可能意味著什么。
因為長尾問題,我們很容易認(rèn)為 AI 問題比實際情況要簡單得多。我們手上有大量的關(guān)于日常事務(wù)的數(shù)據(jù),當(dāng)前的技術(shù)很容易處理這些數(shù)據(jù),這就會誤導(dǎo)我們,給我們一種錯誤的印象;而對于罕見的事件,我們得到的數(shù)據(jù)非常少,且目前的技術(shù)很難去處理這些數(shù)據(jù)。
我們?nèi)祟悡碛写罅康牟煌耆畔⑼评淼募记桑苍S可以克服生活中的長尾問題。但對于目前流行的、更多依賴大數(shù)據(jù)而非推理的人工智能技術(shù)來說,長尾問題是一個非常嚴(yán)重的問題。
2016 年,在一篇題為“Is Big Data Taking Us Closer to the Deeper Questions in Artificial Intelligence?”的采訪中,Gary Marcus 試圖就此發(fā)出警告。他當(dāng)時是這么說的:
盡管有很多關(guān)于人工智能的炒作,也有很多資金投入人工智能,但我覺得這個領(lǐng)域正朝著錯誤的方向發(fā)展。在深度學(xué)習(xí)和大數(shù)據(jù)這些特定的方向上,目前有很多唾手可得的成果。人們對大數(shù)據(jù)以及大數(shù)據(jù)現(xiàn)在給他們帶來的東西感到非常興奮,但我不確定它是否會讓我們更接近人工智能中更深層的問題,比如我們?nèi)绾卫斫庹Z言或我們?nèi)绾瓮评硎澜纭?/p>
…
再想想無人駕駛汽車。你會發(fā)現(xiàn)在一般情況下,無人駕駛汽車是很棒的。如果你把它們放在帕洛阿爾托天氣晴朗的地方,車輛性能會非常棒。但如果你把車輛放在下雪或下雨的地方,或者以前沒見過的地方,這些汽車就難免出問題。Steven Levy 寫了一篇關(guān)于谷歌自動汽車廠的文章,文章中他談到了 2015 年底的研究讓他們終于讓系統(tǒng)能夠識別樹葉。
系統(tǒng)確實能識別葉子,但對于不常見的東西,就不能獲得那么多的數(shù)據(jù)。人類之間可以用常識來溝通。我們可以試著弄清楚這個東西是什么,它是怎么到那里的,但是系統(tǒng)能做的只是記憶東西,這才是真正的限制。
▲ 特斯拉自動駕駛撞上價值 300 萬美元的噴氣式飛機
意想不到的情況一直是當(dāng)代人工智能技術(shù)的禍患,而且可能會一直是,直到真正的革命出現(xiàn)。這就是為什么 Marcus 保證馬斯克不會在今年或明年推出 L5 級別的自動駕駛汽車。
異常值并不是完全無法解決,但仍然是一個重大問題,迄今還沒有已知的魯棒的解決方案。Marcus 認(rèn)為人們必須擺脫對深度學(xué)習(xí)等現(xiàn)有技術(shù)的嚴(yán)重依賴。距離 2029 年還有 7 年,7 年是很長的一段時間,但是如果要在這個十年結(jié)束之前實現(xiàn) AGI,這個領(lǐng)域就需要在其他想法上進(jìn)行投資。否則,僅僅是異常值就足以使實現(xiàn) AGI 的目標(biāo)失敗。
通用人工智能范圍很廣
馬斯克需要考慮的第三件事是,AGI 是一個涉及面很廣的問題,因為智能本身的涉及面很廣。Marcus 在此處引用了 Chaz Firestone 和 Brian Scholl 的這句話:
世上并不只有一種思維方式,因為思維并不是一個整體。相反,思維是可以分為部分的,而且其不同部分以不同的方式運作:“看到顏色”與“計劃度假”運作的方式不同,而“計劃度假”與“理解一句話”、“移動肢體”、“記住一件事”或“感受一種情緒”都不同。
例如,深度學(xué)習(xí)在識別物體方面做得相當(dāng)不錯,但在計劃、閱讀或語言理解方面做得差一些。這樣的情況可以用下圖表示:
目前的 AI 在某些感知方面做得很好,但是在其他方面仍需努力。即使在感知中,3D 感知仍然是一個挑戰(zhàn),場景理解也沒有解決。對于常識、推理、語言或類比等幾個領(lǐng)域,仍然沒有任何穩(wěn)定或值得信賴的解決方案。事實是,這張餅狀圖 Marcus 已經(jīng)用 5 年了,AI 的情況卻幾乎沒有改變。
在 Marcus 發(fā)表于 2018 年的文章“Deep Learning: A Critical Appraisal”中,他總結(jié)道:
盡管我提出了這些問題,但我不認(rèn)為我們應(yīng)該放棄深度學(xué)習(xí)。
相反,我們需要重新定義深度學(xué)習(xí):深度學(xué)習(xí)不是一種通用溶劑,而應(yīng)該是一種工具,除了這種工具,我們還需要錘子、扳手和鉗子,更不用說鑿子、鉆頭、電壓表、邏輯探頭和示波器。
四年過去了,許多人仍然希望深度學(xué)習(xí)能成為萬能藥;可這對 Marcus 來說仍然是不現(xiàn)實的,他仍然認(rèn)為人類需要更多的技術(shù)。實事求是地說,7 年可能不足以發(fā)明這些工具(如果它們還不存在的話),也不足以將它們從實驗室投入生產(chǎn)。
Marcus 向馬斯克提出 2018 年“量產(chǎn)地獄”(馬斯克認(rèn)為 Model 3 電動轎車量產(chǎn)階段猶如地獄般煎熬,并稱之為“量產(chǎn)地獄” )的情形。在不到十年的時間里要對一套以前從未完全集成過的技術(shù)進(jìn)行這樣的整合,要求會非常高。
Marcus 稱,「我不知道馬斯克打算把 Optimus(特斯拉的人形機器人)打造成什么樣,但我可以保證,通用家用機器人所需要的 AGI 遠(yuǎn)遠(yuǎn)超過一輛汽車所需要的,畢竟汽車無論是在公路上開還是在馬路上開,或多或少都是差不多的?!?/p>
復(fù)雜的認(rèn)知系統(tǒng)尚未打造
馬斯克需要意識到的第四件事是,人類仍然沒有一個適當(dāng)?shù)姆椒ㄕ搧順?gòu)建復(fù)雜的認(rèn)知系統(tǒng)。
復(fù)雜的認(rèn)知系統(tǒng)有太多的活動部件,這通常意味著,制造無人駕駛汽車等東西的人最終就像在玩一個巨大的“打地鼠游戲”,往往剛解決了一個問題,又出現(xiàn)了另一個問題。一個補丁接一個補丁有時能派上用場,有時則無效。Marcus 認(rèn)為不可能在不解決方法論問題的情況下得到 AGI,而且他認(rèn)為目前還沒有人提出好的建議。
使用深度學(xué)習(xí)進(jìn)行調(diào)試非常困難,因為沒有人真正理解它是如何工作的,也沒有人知道如何修復(fù)問題,以及收集更多數(shù)據(jù)和添加更多層等等。大眾所知道的那種調(diào)試在經(jīng)典編程環(huán)境中并不適用;因為深度學(xué)習(xí)系統(tǒng)是如此不可解釋,所以人們不能通過相同的方式思考程序在做什么,也不能指望通常的消除過程。相反,現(xiàn)在在深度學(xué)習(xí)范式中,有大量的試錯、再訓(xùn)練和重新測試,更不用說大量的數(shù)據(jù)清洗和數(shù)據(jù)增強實驗等等。Facebook 最近的一份報告坦率地說,在訓(xùn)練大型語言模型 OPT 的過程中遇到了很多麻煩。
有時候這更像是煉金術(shù)而不是科學(xué),正如下圖一樣:
▲ “這是你的機器學(xué)習(xí)系統(tǒng)嗎?”
“對,你把數(shù)據(jù)倒進(jìn)這一大堆線性代數(shù)里,然后到另一邊去撿答案?!?/p>
“如果答案是錯的呢?”
“那就在這一大堆東西上攪和,直到答案看上去正確就行了?!?/p>
編程驗證可能最終會有所幫助,但同樣,在深度學(xué)習(xí)中還沒有編寫可驗證代碼的工具。如果馬斯克想贏這個賭約,那他們可能也要解決這個問題,而且得很快解決。
打賭標(biāo)準(zhǔn)
馬斯克需要考慮的最后一件事是賭約的標(biāo)準(zhǔn)。如果要打賭就要制定基本規(guī)則。AGI 這個術(shù)語相當(dāng)模糊,就像 Marcus 前幾天在 Twitter 上說的那樣:
我把 AGI 定義為“靈活而通用的智力,具有可與人類智慧相媲美、或超過人類智慧的智謀和可靠性?!?/p>
Marcus 還提出要跟馬斯克賭一把,并制定具體的基本打賭規(guī)則。他和 Ernie Davis 根據(jù)與 Metaculus 公司合作的人的要求寫下了以下五個預(yù)言:
到 2029 年,人工智能仍無法在觀看電影的同時準(zhǔn)確地告訴你發(fā)生了什么(Marcus 在 2014 年的《紐約客》雜志上稱之為「理解挑戰(zhàn)」),也不能解答出這些角色是誰,他們的沖突和動機是什么等問題。
到 2029 年,人工智能仍無法閱讀小說并準(zhǔn)確回答有關(guān)情節(jié)、角色、沖突、動機等問題。
到 2029 年,人工智能仍無法在任意廚房里做一個稱職的廚師。
到 2029 年,人工智能仍無法根據(jù)自然語言規(guī)范或通過與非專業(yè)用戶的交互,可靠地編寫超過 10,000 行無 bug 的代碼。(將現(xiàn)有庫中的代碼粘合在一起不算數(shù)。)
到 2029 年,人工智能仍無法從用自然語言編寫的數(shù)學(xué)文獻(xiàn)中任意提取證明,并將其轉(zhuǎn)換為適合于符號驗證的符號形式。
如果馬斯克(或其他人)在 2029 年成功打破至少三個預(yù)言,那他就贏了;如果只打破了一兩個,則不能說 AGI 能夠?qū)崿F(xiàn),贏家就是 Marcus。
對這個賭約,Marcus 躍躍欲試,并對馬斯克:“想要打賭嗎?賭 10 萬美元怎么樣?”
大家怎么看?你們認(rèn)為誰會贏?(吃瓜)
參考鏈接:
https://garymarcus.substack.com/p/dear-elon-musk-here-are-five-things?s=w
https://www.ted.com/talks/elon_musk_elon_musk_talks_twitter_tesla_and_how_his_brain_works_live_at_ted2022
https://arxiv.org/abs/1801.00631
https://www.wsj.com/articles/elon-musk-races-to-exit-teslas-production-hell-1530149814
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。