Oren Etzioni,大名鼎鼎的計算機科學教授,創(chuàng)建并運營華盛頓大學圖靈中心。自2013年以來,他一直擔任艾倫人工智能研究所(以下簡稱:AI2)的CEO。該機構(gòu)研究數(shù)據(jù)挖掘、自然語言處理和語義網(wǎng)的問題。除此之外,他還是Madrona venture Group的風險合伙人。商業(yè)內(nèi)幕人士稱他為“你從未聽說過的最成功的企業(yè)家”。
以下為Oren Etzioni答問實錄:
關于艾倫人工智能研究所和Aristo項目
【問】:請您先給我們介紹一些關于艾倫研究所,我很想了解下你們在網(wǎng)站上重點介紹的四個項目,它們都很有趣。
【Oren Etzioni】:艾倫人工智能研究所事實上是Paul Allen的創(chuàng)意。幾十年來,他一直對人工智能有著強烈的興趣,他在西雅圖建立了多家科學研究所,這些研究所是仿照艾倫腦科學研究所建立的。自2003年以來,后者一直非常成功。艾倫人工智能研究所是在2013年成立的,是一家非營利組織,作為首席執(zhí)行官,我感到非常榮幸。我們的使命是為公共利益服務,正如你提到的,我們有四個讓我非常興奮的項目。
我們的第一個項目是“Aristo項目”,這是關于建立一個計算機程序,它能夠回答像我們問一個四年級學生那樣的科學問題,現(xiàn)在我們也在研究八年級的科學。人們有時會問我,“天啊,你為什么要這么做?”你是想讓10歲的孩子失業(yè)嗎?答案當然是否定的。
我們真的想用這種科學測試題作為衡量我們在智力方面的表現(xiàn)的基準,對吧?我們看到像AlphaGo這樣的計算機程序獲得了巨大成功,在圍棋比賽中擊敗了世界冠軍。我們會說,“嗯,這是怎么轉(zhuǎn)化成語言的——尤其是理解語言,以及理解圖表、理解科學?”
回答這個問題的一種方法是,用“讓我們問機器和人類同樣的問題”來達到一個公平的競爭環(huán)境。所以我們從這些科學測試開始,我們可以看到,事實上人類做得更好。矛盾的是,對人來說相對容易的事情,對機器來說真的很難;對人來說很難的事情,對機器來說其實相對容易些,比如參加圍棋世界錦標賽。
【問】:等一下,我想花點時間仔細分析一下。我已經(jīng)注意到,任何時候一個聊天機器人選擇參加圖靈測試,我問同樣的問題,它們沒有一個能正確回答問題。這是一個四歲的孩子能回答的問題,也就是“五美分大還是太陽更大?”那么,為什么這是一個難題呢?你正在做的事情會影響你能不能回答這個問題嗎?你為什么要從四年級學生開始,而不是四歲的孩子,例如提問一些最基本的問題?所以第一部分是:你正在做的事情是否會影響你能否回答這個問題?
【Oren Etzioni】:當然,我們的目標是給它提供背景知識和理解能力來回答這些類型的問題,這些問題結(jié)合了基礎知識、基本的推理、以及對語言的足夠理解,當你說“五美分”時,你指的不是金屬,而是一種特定的硬幣,有特定的尺寸,等等。
這臺機器感覺如此難回答的原因是它是所謂的“常識”知識的一部分,對吧?當然,如果你編程的話,這臺機器可以回答這個特別問題,但這是你還有其他數(shù)十億個相似的問題,比如關于相對大小,關于動物行為等等。
確實有非常多甚至可以說是無窮無盡的基本問題是機器無法回答的。他們之所以糾結(jié)于這些問題,是因為他們回答這些問題的依據(jù)是什么?他們?nèi)绾潍@得所有這些知識?
例如說,“天啊,我們?yōu)槭裁床豢紤]一個四歲的孩子,或者一個一歲的孩子呢?”我真的考慮過了。因此,在大學里,我們調(diào)查了一個夏天,試圖跟上發(fā)展,說:“讓我們從六個月大的孩子或是一歲的孩子開始,等等?!?/p>
我尤其感興趣的是語言。所以我說,天啊,我們當然可以造出一個可以稱之為“爸爸”或“媽媽”的東西,對吧?然后我們就從這點開始工作。我們發(fā)現(xiàn),即使是非常年幼的孩子,他們處理語言和理解周圍世界的能力也與他們的身體密切相關。他們的目光,以及他們對人們面部表情的理解,最終的結(jié)果是我們無法建立一個一歲的孩子。
所以,有趣的是,一旦你達到了四年級學生的水平,閱讀并回答有關科學問題的多項選擇題,就會變得更容易,而且會更專注于語言和語義學,而不是長身體、能夠爬行。當然,這也是具有挑戰(zhàn)性的機器人問題。
所以,我們選擇從更高的層次開始,例如先從金發(fā)開始,對吧?它更側(cè)重于語言,而且有趣的是,比打造一歲或四歲的孩子要容易得多。而且,與此同時,也不像大學水平的生物學問題那么難,這些問題涉及非常復雜的語言和推理。
【問】:所以你的想法是,通過談論學校的科學考試,你會發(fā)現(xiàn)有一套范圍非常狹窄的詞匯是你必須掌握的,一些范圍非常狹窄的東西是你理解物體所必須掌握的,是這個想法嗎?比如,人工智能在游戲中表現(xiàn)出色,因為這些游戲是有固定規(guī)則的有限世界。你是在嘗試建立一個類似的東西嗎?
【Oren Etzioni】:這是一種模擬。從這個意義上說,人工智能在完成小范圍任務以及有限的領域方面已經(jīng)表現(xiàn)得很不錯了。與此同時,這可能不是真的。所以,從我的觀點來看,如果在這些問題中,有非常大的多樣性,不僅僅是表達方式的多樣性,這些測試通常要求你能理解一些事情,比如重力或光合作用,然后把它應用到特定的情況下。
“如果我們把植物搬到離窗戶更近的地方,會發(fā)生什么?”這意味著將多種基礎科學知識與現(xiàn)實世界情況應用結(jié)合在一起,結(jié)果是非常多樣性的。因此,回答四年級的科學問題比下圍棋要難得多。
真的可以建立通用人工智能嗎?
【問】:你是否相信我們正走在建立一種“通用人工智能”(AGI)?我們需要做的事情就是為了讓他們的規(guī)模越來越大,越來越快,越來越好,那么這就是AGI嗎?這是在正常路徑上嗎?或者AGI與你們正在做的事情是否相關?
【Oren Etzioni】:這是一個非常關鍵的問題。我想說的是,我們并沒有走到建立通用人工智能的道路上。你可能認為,如果你建立了Aristo項目,然后你把它擴展到十二年級,掌握更復雜的詞匯和更復雜的推理……“嘿,如果我們繼續(xù)這么擴大規(guī)模,我們最終會得到通用人工智能,但我不這么認為。
我認為我們還需要解決很多相關問題,這是一個非常復雜情況的一部分。如果這是一條道路,那它是一條曲折的路。但實際上,我們在迭代。
人們經(jīng)常會說,“哦,我把鑰匙放在哪里了?”你有多少次重復你的腳步,打開那個抽屜,說:“哦,我忘了去看看襪子下面,”或者“我忘了看床底下了?!边@是一個非常復雜、不確定的過程,與之相反的是,“哦,我要沿著這條路走下去,目標很明確,我只需要上坡跑5英里,我就能到達那里?!?/p>
我有一本關于人工智能的書即將在今年年底出版,在這本書中,我談到了圖靈測試。我介紹了,我能想到的向電腦提問的最難的問題,這樣我就能檢測出它是電腦還是人。以下是我這個問題的變體,那就是:
“史密斯醫(yī)生正在他最喜歡的餐廳吃飯,他經(jīng)常去那吃東西。他接到一個電話,一個緊急電話,他沒付錢就跑了出去?!安蛷d老板有可能會起訴他嗎?”
所以,如果你仔細想想,你會知道他是個醫(yī)生,他接到的電話可能是急診,你應該推斷出他經(jīng)常在那里吃飯,他們知道他是誰,他們甚至可能知道他是醫(yī)生。他們會起訴嗎?所以,為了回答這個問題,你必須知道很多社交方面的事情。
那么,這和解決十二年級的科學問題是一樣的嗎?或者我提出的這個問題,是否需要AGI來回答?
我們學到的一件事是,無論何時你定義一項任務,例如回答一些涉及社會細微差別的問題,可能其中還有一些倫理和實際的考慮,這也是我們研究的一部分。你可以想象,隨著時間的推移,Aristo項目將面對這些更微妙的問題的挑戰(zhàn)。
但是,同樣的是,我們已經(jīng)非常擅長識別這些任務,建立訓練集,建立模型,然后回答這些問題,這個程序可能會很好地回答這些問題,但在過馬路時仍然很困難。仍然很難讀一首詩或講一個笑話。
因此,對AGI來說,關鍵是“G”,通用性非常難以捉摸。這是一件令人驚奇的事,因為我們談論的四歲孩子問題很有普遍性,盡管她不一定是一個偉大的象棋選手或者偉大的圍棋選手。這就是我們所了解到的。
隨著人工智能技術的發(fā)展,我們不斷了解人工智能最難以捉摸的一面。一開始,如果你讀過60年代和70年代寫的一些東西,人們對電腦程序是否能下國際象棋非常懷疑,因為大眾認為非常聰明的人都是很好的棋手。
然而,到現(xiàn)在這個問題就解決了,人們開始談論學習。他們說,“哦,天哪,但電腦程序是不會學習的?!彪S著我們變得越來越好,至少在某些學習類型上,現(xiàn)在強調(diào)的是通用性,對吧?我們?nèi)绾谓⒁粋€通用的程序,考慮到我們所有的成功,不管是撲克還是象棋,或者是特定的問題,都是在非常狹隘的任務上獲得嗎?
關于AlphaGo是否有意識問題以及人工智能系統(tǒng)的脆弱性
【問】:我讀到的一篇關于Aristo項目的文章說,“可以用一種指導哲學來解釋這個項目的重點,即人工智能是建立一種關于事物如何運作的思維模式,并根據(jù)新知識來完善這種思維模式。”能跟大家解釋一下嗎?你說的是什么意思?
【Oren Etzioni】:關鍵是我們所做的很多事情都是利用了背景知識,即大量事實、詞匯以及各種社會細微差別。
深度學習方法是AlphaGo獲得成功的關鍵,但要記住的是,至少從任何經(jīng)典的定義來看,這些程序都是非常缺乏知識的。如果你能和他們交談,問他們:“你知道什么?”你會發(fā)現(xiàn):雖然他們可能已經(jīng)儲存了大量信息,比如關于圍棋的,但他們并不知道很多東西。
【問】:當然,這也涉及到意識的話題,我理解這在你的書中也提到了:我問AlphaGo,“嘿,你知道你贏了嗎?”AlphaGo無法回答這個問題。這并不是因為它不懂自然語言,是因為它并沒有意識。卡斯帕羅夫曾就“深藍”說過這點。他說,“嗯,至少它不會幸災樂禍?!敝辽偎恢浪驍×宋?。最優(yōu)秀的人才花了很長時間才打造出可以擊敗卡斯帕羅夫的東西。你認為這是那種可能擴散到其他很多東西上嗎?Aristo在做一件與AlphaGo或國際象棋截然不同的事情嗎?
【Oren Etzioni】:我確實認為我們可以從這段經(jīng)歷中總結(jié)點東西出來。但我認為普遍化并不總是人們所做的。所以我們可以概括的是,當我們有一個非常明確的所謂的“目標函數(shù)”或“績效標準”時,基本上很清楚誰贏誰輸。
我們有很多數(shù)據(jù),作為計算機科學家,我們非常善于利用更快的計算機、更多的數(shù)據(jù)、更復雜的算法,最終解決問題。然而,在自然語言方面:如果你邀請我參加另一個播客的話,我想做得更好。我該怎么做呢?如果我變得更好的方法包括查看數(shù)百萬個培訓案例,你就不會做數(shù)以百萬計的播客了。對吧?
你說的對,當事情變得更模糊,或者更不確定,或者更微妙的時候,當有更少的訓練數(shù)據(jù),這就需要有不同的辦法。所有這些特點使得Aristo和其他一些項目非常不同于象棋或圍棋,這些都是非常不同的事情。
【問】:那么,Aristo有何不同?說一個它能回答的問題和一個它不能回答的問題?;蛘哌@是一個令人信服的問題?你是怎么認為的?
【Oren Etzioni】:首先,我們要記錄我們的分數(shù)。所以,我馬上給你舉個例子。雖然Aristo在四年級非圖表多項選擇題的正確率為80%,但是當我們看到我們所說的“非圖表多重選擇”,純粹只有語言的問題,讓機器解釋圖表是困難的。
不管你說任何問題,我們的準確率有80%。這非常棒,因為開始的時候我們的準確率接近20%,包括所有帶圖表的問題,還有所謂的“直接回答問題”,即你必須用一個短語或一個句子來回答它們,不能只在四個選項中做出選擇,那時候我們的水平要低得多。
樂觀的講,我們已經(jīng)取得了很大的進步。但悲觀的一面是,我們在四年級的科學測試中,仍然得到了D。所以這是一個你如何看待它的問題。現(xiàn)在,當你問“我們能解決什么問題?”我們的網(wǎng)站AllenAI.org上上有一個演示。例如我點擊“現(xiàn)場演示”,我會看到這樣的問題:“水循環(huán)的主要能量來源是什么?”甚至,“下面的圖表展示了一條食物鏈?!比绻←溨仓晁懒?,老鼠的數(shù)量會如何變化?所以,這些都是相當復雜的問題,對吧?
但這些問題并不長,而我們創(chuàng)造的AI仍在糾結(jié)的問題,這就是所謂的“脆弱性”。如果你選擇任何一個我們能回答的問題,然后改變你問問題的方式,我們就會立刻失敗。順便說一句,這是許多人工智能系統(tǒng)的一個特點,“脆弱性”的概念,即一個非常小的差別,人類看了可能會說,“哦,這沒什么不同”,但對機器有很大的不同。
【問】:的確如此。我一直在測試Amazon Alexa,我注意到,如果我說,“有多少個國家?”它給了我一個數(shù)字。如果我說,“世界上有多少個國家?”它給了我一個不同的數(shù)字。不管是哪個人都會把它們看成是同一個問題。這就是你所說的那種東西嗎?
【Oren Etzioni】:這正是我要談論的事情,這讓人非常沮喪。例如,“Siri,你今晚怎么樣?”或者,“你比Alexa好嗎?”我說的是,就像你和酒店的管理人員之間那種對話,想在市中心找到一家不錯的餐廳。所有這些在游戲中很容易解決的問題,在對話的語境中甚至都沒有很好地表達出來。
我寫了一篇文章,關于Alexa和Google Assistant對于一些事實性問題提供了不同的答案。
如果你問,“一年有多少秒?”他們會給你不同的答案。如果你說,“誰設計了美國國旗?”他們會給你不同的答案。如果詳細分析一年有多少秒,你會認為這是一個目標,有對錯之分。但是他們一個給了日歷年的答案,一個給了太陽年的答案,這兩者相差四分之一天。
而對于美國國旗的問題,如果你想想,一個人說Betsy Ross,另一個說的是設計50星國旗的人,即我們現(xiàn)在的國旗。最后,這兩種情況都是提問者的錯,因為問題本身是模糊的,對吧?所以,即使系統(tǒng)很好,但如果問題的措辭很糟糕,它仍然會搞砸,對吧?它仍然很脆弱。
換句話說,智力的一個方面是能夠回答一些模糊的問題,并且能夠自圓其說。但這些系統(tǒng),即使它們的事實存儲量是巨大的,甚至有一天,它們肯定會超過我們。但如果你說,“你為什么給我這個數(shù)字?”它會說,“嗯,我在這里找到了?!敝螅覀儠吹揭粋€很大的查找表。它無法處理這種模糊,也無法以一種更有意義的方式解釋自己。如果你把數(shù)字3放在那張表格上呢?你會問,“一年有多少秒?”這個程序會很高興地說,“3秒”。你會說,“這真的合理嗎?”它會說,“哦,我不能回答這個問題?!睂Π??而一個人會說,“等一下?!币荒瓴豢赡苁?秒。這根本說不通??!”對吧?所以,我們還有很長的路要走。
關于Euclid項目
【問】:我們還有三個項目要討論,但你肯定對John Searle的中文房間問題很熟悉,我準備在這里也提出來:在一個房間里有一個人,他不懂中文,有人用中文向他提問,他有很多書可以查到,但他只是把這些書抄下來,然后把它們還回去。他不知道對方說的是霍亂還是咖啡豆,或者是什么。很顯然,這就是類比電腦。那么電腦真的能理解任何東西嗎?
【Oren Etzioni】:你知道,這個中文房間實驗真的是思想哲學中最吸引人、最有趣的思想實驗之一,有很多文章都是關于它的爭論。簡而言之,我認為它確實暴露了一些問題,當你深入了解這個中文房間和系統(tǒng),你會說,“天啊,它看起來好像什么都不懂?!?/p>
當你把電腦拆開時,你會說:“天哪,它怎么能理解?”它只是一堆電路、電線和芯片?!边@條推理的唯一問題是,如果你深入了解一個人的思維。換句話說,如果你分析他們的大腦,你會看到同樣的東西。你可以看到神經(jīng)元、離子電位、化學過程、神經(jīng)遞質(zhì)和荷爾蒙。
當你在這個層面上看時,神經(jīng)元當然也不能理解任何東西。我認為,在中文房間里,如果沒有其他的播客,我認為這是一件很有趣的事情,但這有點誤導人。理解是一種從復雜的技術系統(tǒng)中產(chǎn)生的東西。這種技術系統(tǒng)可以建立在神經(jīng)元之上,也可以建立在電路和芯片之上。這是一種自然發(fā)生的現(xiàn)象。
【問】:那也會是另一個問題,因為我會問你,它是強自然還是弱自然?但是,正如我所說,我們還有三個項目要討論。我們來談談Euclid。
【Oren Etzioni】:Euclid是Aristo的兄弟,在Euclid,我們研究的是SAT數(shù)學問題。Euclid的問題更簡單,因為要回答這些純粹的數(shù)學問題,你不需要所有這些背景知識。然而,你真的需要非常全面、全面地理解句子。所以,我會給你我最喜歡的例子。
這個問題是基于一個關于Ramanujan的故事,他是印度的數(shù)字理論家。他說,“能用兩種不同方式表示的兩個自然數(shù)立方之和的最小數(shù)是多少?”這個問題的答案是一個特定的數(shù)字。當然,聽眾可以在谷歌上搜索。但是要正確地回答這個問題,你必須要完整地解析這個冗長而復雜的句子,并理解“用兩種不同方式表示的兩個自然數(shù)立方之和”。
對于AI系統(tǒng)來說,這到底是什么意思呢?
Euclid項目要對句子和段落有一個完整的理解,這就是我們在SAT考試中所遇到的問題,不過Aristo也也經(jīng)常遇到這些問題,當你在處理數(shù)學問題的時候,你就沒有“似乎”了,你必須給出答案。
Plato項目:關于視覺認知
【問】:正如你所說的,這就是Aristo的兄弟,但是Plato呢,我們要討論的第三個項目,它非常不同,對吧?
【Oren Etzioni】:沒錯。也許,如果我們用這個家族比喻,Plato就是Aristo和Euclid的堂弟,但實際情況是我們并沒有自然的基準測試,但我們對視覺非常感興趣。我們已經(jīng)意識到,我們想要解決的很多問題,世界上的很多知識,都不是用文本來表達的,當然不是以任何方便的方式表達的。
有一種很好的方法來了解事物的大小,不僅僅是太陽和五美分,甚至還有長頸鹿和蝴蝶……你不會找到這樣的句子:“長頸鹿比蝴蝶大得多?!钡绻憧吹剿鼈兊恼掌憔涂梢越⒙?lián)系。Plato是關于從圖像、視頻、圖表中提取知識,并能夠推理得出結(jié)論。
因此,這個項目的負責人Ali Farhadi,在華盛頓大學艾倫學院和我們是同事,他的工作成果令人驚嘆,我們可以基于圖像做出非常了不起的事情。我最喜歡的一個例子是:想象一下,畫一條對角線,然后在這條線上畫一個球。
那個球?qū)鯓樱?/p>
好吧,如果你能把它想象出來,當然球就會滾下來,它會滾下坡。事實證明,大多數(shù)算法實際上在做這種預測方面都受到了挑戰(zhàn),因為要做出這樣的預測,你必須要對正在發(fā)生的事情進行推理。這不僅僅是說,“在這條線上有一個球”,但你必須明白這是一個斜坡,重力將會發(fā)揮作用,并預測會發(fā)生什么。所以,我們真的有一些最先進的能力,比如對圖像的推理和預測。
【問】:難道視頻不是一件完全不同的事情,因為你真正看到的是圖像之間的區(qū)別,或者它們是相同的基本技術?
【Oren Etzioni】:在技術層面上,有許多不同之處。但實際上,視頻只是一系列的圖像。正是我們的眼睛,或者說我們的大腦,構(gòu)造了連續(xù)的運動。它所全部展示的是每秒顯示的多個圖像。對我們來說,這是訓練數(shù)據(jù)的絕佳來源,因為我可以把圖片放在第1秒,預測第2秒會發(fā)生什么。然后我可以看看第2秒發(fā)生了什么,看看這個預測是否正確。球滾下山坡了嗎?蝴蝶落在長頸鹿身上了嗎?因此,這有很多共性,而視頻實際上是豐富的圖像和訓練數(shù)據(jù)來源。
【問】:讓我舉個例子,如果我住在一條死胡同里,假設街對面的那對夫婦懷孕了,那個女人已經(jīng)懷孕九個月了。有一次我早上三點起床,我望著窗外,他們的車不見了,我想說,“啊,他們一定是去醫(yī)院了。”換句話說,我是根據(jù)圖像中沒有的東西來推理的。對于機器來說,那真的很難,不是嗎?
【Oren Etzioni】:是的,人遠遠領先于Plato。但要預料到這一點,你必須找語義學者網(wǎng)站(semanticscholar.org)幫忙。在語義學者網(wǎng)的幫助下,我們在其他項目中看到的許多能力都集中在一起。語義學者網(wǎng)是一個科學的搜索引擎,它可以讓人們?nèi)ふ矣嬎銠C科學論文,以及神經(jīng)科學論文。很快,我們將推出覆蓋所有在PubMed等引擎上可以找到的生物醫(yī)學論文。
然而,我們正在努力解決的問題是,科學研究論文非常多,可能超過1億份,而且每天都有更多的科研論文發(fā)表,對任何人都能幾乎不可能跟進。
與以往不同,現(xiàn)在再也沒有一個可能知道所有科學知識的人,因為我們跟不上發(fā)展的速度。這是人工智能幫助我們的好地方,讓科學家在文獻搜索中更有效率,更高效地進行假設和設計實驗。
這就是我們試圖用“語義學者”來做的,這涉及到理解語言,這涉及到理解圖像和圖表,這涉及到更多。
【問】:為什么你認為語義網(wǎng)沒有取得更大的發(fā)展,你對語義網(wǎng)的預測是什么?
【Oren Etzioni】:我認為重要的是區(qū)分“語義學”(semantic)和“語義論”(semantics),我們在“語義學者”中用的是后者,而在語義網(wǎng)中用的是前者。在“語義學者”中,我們試圖將語義信息與文本聯(lián)系起來。例如,這篇論文是關于一個特定的大腦區(qū)域,或者這篇論文使用的是功能磁共振成像方法等等。這是非常簡單的語義區(qū)分。
語義網(wǎng)是語義論的一個非常豐富的概念,坦率地說,它是超人類的,而且遠遠超出了我們在分布式世界中所能做的。因此,蒂姆·伯納斯-李的愿景在過去幾年里不斷發(fā)展成為一種叫做“鏈接開放數(shù)據(jù)”的東西,在這里,語義論非常簡單,重點更多的是網(wǎng)絡上的不同參與者將數(shù)據(jù)聯(lián)系在一起。
我認為,很少有人研究語義網(wǎng)的原始概念,因為它實在是太難了。
【問】:我只是好奇,這是一個有點無聊的問題:你的項目的名字似乎并沒有遵循一個包羅萬象的意義計劃。這是因為它們是在其他地方被創(chuàng)造出來的嗎?
【Oren Etzioni】:這是因為,如果你讓一個計算機科學家負責品牌推廣,你就會遇到問題。我認為一開始的時候建立了Aristo和Euclid兩個項目,他們都是差不多類似的。然后我們又加上了Plato,這是個不太完美的名字,但大致上還是在神話世界里。而“語義學者”則是有點冒充谷歌學者。
因此,“語義學者”,如果你愿意這樣說的話,真的是格格不入。當我們創(chuàng)立一個項目時,我們正在考慮進行這方面的工作,也許我們稱該項目為“蘇格拉底”。但我也在想,我們真的想要所有的項目都要以男性的名字命名嗎?這顯然不是我們的意圖。所以,我認為最重要的是,這是一個不完美的命名方案。
AI2的使命與貢獻
【問】:艾倫人工智能研究所的使命是:“我們的使命是通過高影響力的人工智能研究和工程為人類做出貢獻?!焙臀艺務劇皩θ祟愖龀鲐暙I”吧。你的設想是什么?你希望這一切能帶來什么?
【Oren Etzioni】:好的。當我們開始建立艾倫研究的時候,我們意識到,人工智能要么受到了詆毀,尤其是在好萊塢電影里,但也有像史蒂芬·霍金和伊隆·馬斯克這樣的人。我們想要強調(diào)人工智能是為了人類的共同利益,也就是為了人類,我們在那里看到了一些真正的好處。
而且,在很多營利性公司中,如果它被情報機構(gòu)或積極的營銷所利用的話,人工智能被用來精準投放廣告,或者以各種方式讓你購買更多的東西,或者是侵犯你的隱私。我們真的很想找到像“語義學者”這樣的地方,人工智能可以幫助科學家解決人類最棘手的問題。
我們非常高興地看到,自從我們成立以來,像OpenAI或Partnership on AI這樣的組織,已經(jīng)制定了與我們的行動相呼應的使命:使用人工智來造福人類和社會,諸如此類。因此,我們似乎越來越多地專注于使用人工智能。
人工智能對就業(yè)的影響到底是怎樣的
【問】:所以你提到的“對人工智能和恐懼的擔憂”是顯而易見的,尤其是好萊塢電影帶來的影響。但是這種恐懼有兩種不同的表現(xiàn)形式。一個是你順便提到的,結(jié)果有點糟糕,就像電影《終結(jié)者》里面的一樣。但另一個問題是,你如何看待人工智能對就業(yè)和工作的影響?
【Oren Etzioni】:我認為這是一個非常現(xiàn)實的擔憂。正如你所知道的,我不太喜歡有關人工智能的末日場景。我告訴人們,我們不應該把科學和科幻混為一談。但我們不應該關注世界末日的另一個原因是,我們有更多現(xiàn)實和緊迫的問題需要擔心。舉例來說,人工智能對就業(yè)的影響,這是一個非?,F(xiàn)實的問題。
我預測,在不久的將來我們將在交通領域看到它。卡車司機和優(yōu)步司機等將逐漸被擠出市場,這是相當數(shù)量的工人。當然,要幫助重新培訓他們,幫助他們在日益數(shù)字化的經(jīng)濟中找到其他工作并不容易。
【問】:但是,你知道,至少在過去的幾百年中,美國的歷史總有幾個真正具有顛覆性的技術出現(xiàn)。我的意思是,事情變化的速度很快。而且,失業(yè)率從未因為這一點而動搖。因為人們只會使用新技術。而且,隨著人工智能的發(fā)展,難道它實際上不是一種讓人們提高自身生產(chǎn)力的強大技術嗎?比如,任何人都可以用它來提高生產(chǎn)率。
【Oren Etzioni】:我的確認為人工智能將會扮演這樣的角色,并且我也的確認為,正如你所暗示的那樣,這些技術力量確實有一些積極的方面。所以,正是因為技術的進步,我們擁有手機、汽車、洗衣機、所有這些能讓我們的生活變得更好的東西以及現(xiàn)代醫(yī)療等等。所以我不認為這些技術上的進步,包括人工智能的進步,是負面的或者是無效的。
如果我們說,“好吧,我們不會有人工智能,”或者“我們不會有電腦”,那么,其他國家將會予以接納并超越我們。我認為,要阻止廣泛的技術變革,這是非常困難的。狹義的技術是非??膳碌?,比如地雷或生物武器,我們已經(jīng)可以停止了。但我認為人工智能并不是可以停止的,因為它的范圍更廣,它不是應該停止的東西。
所以我非常同意你所說的,但有一個關鍵的警告。我們挺過了這些事,我們蓬勃發(fā)展,但在很長一段時間內(nèi)保持顛覆是非常非常困難。所以我們從一個90%都是農(nóng)業(yè)的社會發(fā)展至一個只有2%農(nóng)業(yè)工人的社會,有的人受苦,有的人因而失業(yè)。
因此,我確實認為我們需要有建立合適的程序來幫助人們完成這些轉(zhuǎn)變。我認為要這樣做并不簡單,因為有些人會說,“當然,那些老工作消失了,但看看這些優(yōu)秀的工作吧?!蹦阒?,網(wǎng)絡開發(fā)者、電腦程序員,他們利用這些技術讓自己在工作中更有效率。”這沒錯,但現(xiàn)實要復雜得多。這些卡車司機真的會成為網(wǎng)絡開發(fā)者嗎?
【問】:我的論點是,每個人都提升一點點。所以在大學里當數(shù)學老師的人,可能會成為一名網(wǎng)絡開發(fā)員,高中老師成為了大學老師,然后一個代課老師得到了全職工作。沒有人會說,“哦,不,不,我們要把這些人,你知道,他們受過較少的培訓,我們要把他們投入到這些技術性很強的工作中去。”過去沒有發(fā)生過這樣的事情,對吧?每個人都要做點什么,問題是每個人都能勝任比他們今天的工作更復雜的崗位嗎?如果答案是肯定的,那么我們是否會迎來一場大變革?
【Oren Etzioni】:首先,你說得很對。把卡車司機映射到開發(fā)人員,我是過分簡單化了。但與此同時,我認為我們需要記住,這些變化是非常具有顛覆性的。這是最簡單的例子,因為它在我的頭腦中是新鮮的,我認為,還有其他人的想法。讓我們來看看底特律。這不是技術變革,而是全球化,以及制造業(yè)崗位轉(zhuǎn)移到美國以外的原因。
但無論如何,這些人并不是每個人都邁出了一小步,或者向右邁出了一小步,不管你想說什么。這些人和他們的家人遭受了巨大的痛苦。它的后果非常嚴重,包括底特律破產(chǎn),包括許多人失去醫(yī)療保險。所以我認為,如果你考慮未來20年,消極的變化會被積極的改變所抵消嗎?是的,在很大程度上是這樣的。但如果你考慮短一點的時間范圍,考慮特定人群,我認為我們不能說“嘿,一切都會好起來的?!蔽艺J為我們還有很多工作要做。
【問】:好吧,我同意你,如果有什么我覺得可以安慰的話,那就是這個國家以前做過的。在這個國家曾經(jīng)有一場關于掃盲后教育是否值得的討論,這是在我們還是農(nóng)民的時候。你可以理解其中的邏輯,對吧?如果說,“一旦有人學會了閱讀,你為什么要把他們留在學校里呢?”然后人們說,“未來的工作將需要更多的技能?!闭驗槿绱耍绹懦蔀槭澜缟系谝粋€確保每個人都能接受高中教育的國家。聽起來你是在說類似的事情,我們需要確保我們的教育機會與我們正在創(chuàng)造的工作的要求保持同步。
【Oren Etzioni】:絕對是的。我認為我們都一致認為讓人們接受人工智能有積極作用要花很大功夫,你說呢?有些人,對就業(yè)和社會有一種世界末日即將來臨的感覺。我百分百同意你意見,但我不喜歡這種看法。聽起來我們也一致認為,我們可以做一些事情來讓這些轉(zhuǎn)變更順利、更容易為社會各個階層所接受。
這肯定與改善教育和尋找機會等有關。所以,我認為有一個問題是,這種變革會有多痛苦,持續(xù)多長時間,才能使我們達到一種新的平衡狀態(tài),順便說一句,這可能是一個非常棒的變革嗎?因為,你知道,卡車司機工作的有趣之處,失去工作崗位的痛苦,還有很多工作崗位消失了,其中一些工作很糟糕。
其中一些很糟糕,對吧?人們對這些工作并不感興趣。他們這樣做是因為他們沒有更好的東西。如果我們能給他們提供更好的東西,那么世界將會變得更加美好。
通用人工智能之路
【問】:絕對可以。我們已經(jīng)討論過AGI了,我想你會認為我們最終會打造一種通用智能?
【Oren Etzioni】:我確實這么認為。我認為這很可能需要25年的時間,可能最長需要一千年的時間,但我是所謂的唯物主義者。這并不意味著我喜歡在亞馬遜上購物,這意味著我相信,當你認真考試考慮會發(fā)現(xiàn),我們是由原子和分子構(gòu)成的,而人工智能并沒有什么神奇之處。
這里面有一種非常神奇的東西,但它并沒有什么不可形容的。因此,我認為,最終我們將建立能夠做事并超越我們所能做的事情的計算機程序。
【問】:那么,你相信我們也會建立有意識的機器嗎?
【Oren Etzioni】:是的,我認為它自己會產(chǎn)生意識。我認為意識中沒有什么是人類或者生物獨有的。
【問】:人們認為在我們創(chuàng)建一個“AGI”需要花費5到500年。你認同這個范圍嗎?
【Oren Etzioni】:好吧,我愿意給1000比1的賠率,押寶在未來五年內(nèi)這不會發(fā)生。我賭十美元,賺一萬美元,因為我現(xiàn)在就在解決這些問題,而我們離任何與AGI相似的東西都還很遠。我所認識的這個領域的任何人,也都是這樣想或者這樣說的。
我知道有一些所謂的未來主義者,但是那些積極致力于人工智能的人卻并認為這點會到來。而且,即使有人說了一些隨機的事情,我也會要求他們:“用數(shù)據(jù)來備份。”你這么說的依據(jù)是什么?看看我們在具體的基準測試和挑戰(zhàn)方面的進展情況;它們很有前途,但它們只是在范圍非常狹窄的任務才非常有前景,比如對象檢測、語音識別或語言理解等。
現(xiàn)在,當你超過十歲、二十歲、三十歲的時候,誰能預測會發(fā)生什么呢?因此,我很高興地說,在未來的25年里,這種情況不會發(fā)生,而且我認為,很難預測之后的情況,無論是50年還是100年,甚至更多,我都不能告訴你。
【問】:那么,你認為我們有足夠的部件來構(gòu)成AGI嗎?我們是不是正在朝那個方向前進,或者這是不是需要實現(xiàn)一些我們無法想象的突破才能達成?或者既然我們獲得了足夠的深度學習、更快的處理器、更好的算法和更多數(shù)據(jù),你能說我們現(xiàn)在正走在通往它的道路上嗎?或者你認為我們將會創(chuàng)立“AGI”的唯一理由是你是唯物主義者——你知道,我們是由原子組成的,我們可以建造任何由原子組成的東西。
【Oren Etzioni】:我認為這需要多個突破,這些突破在今天是很難想象的。
讓我給你舉一個非常具體的例子。我們想要獲取文本、圖像、視頻等形式的信息,并在內(nèi)部使用一種表示語言的表達方式來表達它的含義,它的主旨,就像這個播客的聽眾掌握了我們所談論的內(nèi)容的要點。我們甚至不知道這門語言是怎么樣的。我們有各種各樣的表征語言,它們都未達到該任務的要求。
讓我給你另一種思考的方式,把它當做一個思維實驗。假設我能給你一臺電腦,它的速度要多快有多塊,有我想要的內(nèi)存。用那臺令人難以置信的電腦,我現(xiàn)在能制造出一種達到人類水平的人工智能嗎?答案是“不”。
這不是我的問題,是沒有人能做到這點。
所以,如果它真的是關于速度之類的,那么我在短期內(nèi)會更樂觀,因為我們很擅長讓它運行速度快2倍,使它運行速度快10倍,組件速度更快的計算機,存儲更多信息。我們過去把它存儲在軟盤上,現(xiàn)在我們把它存儲在這里,接下來我們要把它儲存在DNA中。
在摩爾定律下,技術的指數(shù)式發(fā)展(不斷地變得越來越快和越來越廉價)從這個意義上說,是驚人的。但這還不足以實現(xiàn)“AGI”。
【問】:最后一個問題,你之前說過你告訴人們不要把科學和科幻小說混為一談。但是,在科幻小說里,你有沒有看過、讀過、看過的東西,你真的認為這是一個現(xiàn)實的場景,我們可能會做這么做,未來會是這個樣子?會不會有些東西你看了后說,這是小說,但這有可能發(fā)生?
【Oren Etzioni】:你知道,我最喜歡的小說之一是《雪崩》(Snow Crash),它描繪了Facebook的未來以及我們社會的未來等等。如果讓我推薦一本書,那肯定是它。我認為很多關于人工智能的書都是科幻小說,缺乏所謂的“硬科幻”,更脫離了現(xiàn)實。
如果我們說的是科幻小說,我想以一句話結(jié)尾,你也應該知道的,著名編劇Arthur c.Clarke曾說過:“一項足夠先進的技術與魔法沒有區(qū)別?!彼晕艺J為,對很多人來說,人工智能像是一種魔法,對吧?我們可以在圍棋上打敗世界冠軍——我向人們傳達的信息是,作為一個每天都埋頭苦干的人,我想說我們離魔術不遠了。
這當中有血、汗和淚,而且這是人類的血、汗和淚,是真正有才華的人的血、汗和淚,來實現(xiàn)我們在人工智能領域取得的有限的成功。順便說一下,AlphaGo就是這方面的終極例證。因為不是AlphaGo打敗了李世石,也不是機器打敗了人類。這是一個由谷歌工程師和科學家組成的非常有才華的團隊,他們在Google DeepMind項目工作多年,是他們在技術的幫助下?lián)魯±钍朗?/p>
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。