9 月 26 日消息,F(xiàn)acebook 母公司 Meta 的首席 AI 科學家雅恩?勒昆 (Yann LeCun) 認為,目前大多數(shù) AI 方法永遠不會帶來真正的智能,他對當今深度學習領(lǐng)域許多最成功的研究方法持懷疑態(tài)度。
這位圖靈獎得主表示,同行們的追求是必要的,但還遠遠不夠。其中包括大型語言模型的研究,如基于 Transformer 的 GPT-3。正如勒昆所描述的那樣,Transformer 的支持者們相信:“我們將所有東西標記化,并訓練巨型模型進行離散預測,AI 由此脫穎而出。”
勒昆解釋稱:“他們沒有錯。從這個意義上說,這可能是未來智能系統(tǒng)的一個重要組成部分,但我認為它缺少必要的部分?!崩绽ネ晟屏司矸e神經(jīng)網(wǎng)絡(luò)的使用,該技術(shù)在深度學習項目中取得了令人難以置信的成效。
勒昆還看到了該學科許多其他高度成功領(lǐng)域的缺陷和局限性。他堅持認為,強化學習永遠也不夠。像 DeepMind 的大衛(wèi)?西爾弗 (David Silver) 這樣的研究人員,盡管他們開發(fā)出了 AlphaZero 程序,掌握了國際象棋和圍棋,但他們關(guān)注的是“非常注重行動的”程序,而勒昆觀察到,“我們的大部分學習并不是通過采取實際行動來完成的,而是通過觀察來完成的”。
現(xiàn)年 62 歲的勒昆有很強的緊迫性,他必須直面自己認為許多人可能正在奔向的死胡同,并試圖引導其所在領(lǐng)域朝著他認為應(yīng)該走的方向前進。勒昆說:“我們看到了很多關(guān)于我們應(yīng)該做些什么來推動 AI 達到人類智能水平的說法,我認為有些想法是錯誤的。我們的智能機器甚至還沒有達到貓的智能水平。那么,我們?yōu)槭裁床粡倪@里開始呢?”
勒昆認為,不僅是學術(shù)界,AI 行業(yè)也需要深刻的反思。他說,自動駕駛汽車群體,如 Wayve 這樣的初創(chuàng)公司,認為他們只要向大型神經(jīng)網(wǎng)絡(luò)“拋出數(shù)據(jù),就可以學到幾乎任何東西”,這似乎“有點兒過于樂觀了”。
勒昆稱:“你知道,我認為我們完全有可能在沒有常識的情況下?lián)碛?L5 級自動駕駛汽車,但你必須在設(shè)計方面做出努力?!?他認為,這種過度設(shè)計的自動駕駛技術(shù)將會像所有被深度學習淘汰的計算機視覺程序一樣,變得脆弱不堪。他說:“歸根結(jié)底,將會有一種更令人滿意、可能也更好的解決方案,它涉及到更好地理解世界運行方式的系統(tǒng)。”
勒昆希望促使人們重新思考有關(guān) AI 的基本概念,他說: “你必須后退一步,然后說:‘好吧,我們建造了梯子,但我們想去月球,而這個梯子不可能把我們帶到那里。’我要說的是,這就像制造火箭,我不能告訴你我們?nèi)绾沃圃旎鸺募毠?jié),但我可以提供基本原則?!?/p>
勒昆認為,AI 系統(tǒng)需要能夠推理,而他所提倡的過程是將某些潛在的變量最小化。這使得系統(tǒng)能夠計劃和推理。此外,勒昆認為應(yīng)該放棄概率框架,因為當我們想要做些事情,比如捕捉高維連續(xù)變量之間的依賴性時,這很難處理。勒昆還主張放棄生成模型,因為系統(tǒng)將不得不投入太多的資源去預測那些很難預測的事情,可能會消耗太多的資源。
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。