這次,科幻電影快要趕不上現(xiàn)實(shí)了
作者 | 連冉
編輯 | 鄭玄
即將上映的好萊塢科幻電影《AI 創(chuàng)始者》中,一個(gè)原本為人類服務(wù)的人工智能在洛杉磯引爆了核彈。
比電影更加科幻的是,現(xiàn)實(shí)中,AI 公司們已經(jīng)開始擔(dān)憂起這樣的場(chǎng)景真的出現(xiàn)在現(xiàn)實(shí)世界。
近日,OpenAI 表示出于對(duì) AI 系統(tǒng)安全性的考慮,公司正在成立專門團(tuán)隊(duì)?wèi)?yīng)對(duì)前沿 AI 可能面臨的「災(zāi)難性風(fēng)險(xiǎn)」,其中包括核威脅。
事實(shí)上,其 CEO Sam Altman 一直擔(dān)憂 AI 可能對(duì)人類構(gòu)成「滅絕性」威脅,此前曾在包括美國(guó)國(guó)會(huì)咨詢的多個(gè)場(chǎng)合下呼吁加強(qiáng) AI 類的監(jiān)管。不過(guò),包括 Meta 科學(xué)家 Yann LeCun 在內(nèi)的一批科學(xué)家則對(duì) AI 監(jiān)管持不同觀點(diǎn),后者認(rèn)為當(dāng)前 AI 能力仍然有限,過(guò)早監(jiān)管不僅只會(huì)讓大公司受益,也會(huì)扼殺創(chuàng)新。
這突顯了業(yè)內(nèi)對(duì)前沿 AI 監(jiān)管仍存在分歧。監(jiān)管過(guò)早可能會(huì)制約技術(shù)發(fā)展,但缺乏監(jiān)管又將難以應(yīng)對(duì)風(fēng)險(xiǎn)。如何在技術(shù)先行和防范監(jiān)管間取得平衡,使 AI 既高效發(fā)展又安全可控,仍然屬于業(yè)界難題。
01、AI,前沿還是危險(xiǎn)
近日,OpenAI 在一份更新中表示,出于對(duì) AI 系統(tǒng)安全性的考慮,公司正在組建新團(tuán)隊(duì)「準(zhǔn)備就緒(Preparedness)」來(lái)跟蹤、評(píng)估、預(yù)測(cè)「前沿模型」的發(fā)展,以防止所謂的「災(zāi)難性風(fēng)險(xiǎn)」,包括網(wǎng)絡(luò)安全問(wèn)題以及化學(xué)、核和生物威脅。
該團(tuán)隊(duì)將由 Aleksander Madry 領(lǐng)導(dǎo),他任 MIT 可部署機(jī)器學(xué)習(xí)中心主任一職,目前處于休假期間。
此外,該團(tuán)隊(duì)的任務(wù)還包括制定和維護(hù)「風(fēng)險(xiǎn)知情開發(fā)政策」,該政策將詳細(xì)闡釋 OpenAI 構(gòu)建 AI 模型評(píng)估和監(jiān)控工具的方法、公司的風(fēng)險(xiǎn)緩解行動(dòng)以及監(jiān)督整個(gè)模型開發(fā)流程的治理結(jié)構(gòu)。該政策旨在補(bǔ)充 OpenAI 在 AI 安全領(lǐng)域的工作,并保持部署前后的安全性與一致性。
OpenAI 提出,管理前沿 AI 模型的可能的災(zāi)難性風(fēng)險(xiǎn)需要回答以下幾個(gè)關(guān)鍵問(wèn)題:
前沿 AI 模型被誤用的危險(xiǎn)性大???
如何建立健全的監(jiān)測(cè)、評(píng)估、預(yù)測(cè)和防范前沿 AI 模型危險(xiǎn)能力的框架?
如果前沿 AI 模型被盜用,惡意行為者可能會(huì)如何利用它們?
OpenAI 在更新中寫道:「我們相信… 將超越目前最先進(jìn)模型的前沿 AI 模型,有可能造福全人類… 但它們也會(huì)帶來(lái)越來(lái)越嚴(yán)重的風(fēng)險(xiǎn)?!?/p>
最近一段時(shí)間,OpenAI 不斷強(qiáng)調(diào) AI 的安全問(wèn)題,并開展了一系列公司層面、輿論層面、甚至政治層面的行動(dòng)。
此前在 7 月 7 日,OpenAI 宣布成立一個(gè)新團(tuán)隊(duì),旨在探索引導(dǎo)和控制「超級(jí) AI」的方法,團(tuán)隊(duì)由 OpenAI 聯(lián)合創(chuàng)始人兼首席科學(xué)家 Ilya Sutskever 和 Alignment 負(fù)責(zé)人 Jan Leike 共同領(lǐng)導(dǎo)。
Sutskever 和 Leike 曾預(yù)測(cè),超過(guò)人類智慧的人工智能將在 10 年內(nèi)出現(xiàn),他們稱,這種人工智能不一定是善良的,因此有必要研究控制和限制它的方法。
根據(jù)當(dāng)時(shí)的報(bào)道,該團(tuán)隊(duì)被授予最高優(yōu)先級(jí),并獲得公司 20% 的計(jì)算資源支持,他們的目標(biāo)是在未來(lái)四年內(nèi)解決控制超「超級(jí) AI」的核心技術(shù)挑戰(zhàn)。
為了配合此次「準(zhǔn)備就緒」團(tuán)隊(duì)的啟動(dòng),Open AI 還舉辦了一項(xiàng)挑戰(zhàn)賽,讓外部人士就 AI 可能被如何濫用并在現(xiàn)實(shí)世界造成危害的方式提出想法,前 10 名的提交者將獲得 2.5 萬(wàn)美元的獎(jiǎng)金和一份「準(zhǔn)備就緒」的工作。
02、關(guān)于「AI 可能導(dǎo)致人類滅絕」的擔(dān)心
OpenAI 的 CEO Sam Altman 一直擔(dān)心 AI 可能導(dǎo)致人類滅絕。
在 5 月的一場(chǎng) AI 主題的美國(guó)國(guó)會(huì)聽證會(huì)上,Altman 就表示,需要對(duì) AI 進(jìn)行監(jiān)管,如果沒有針對(duì)超級(jí) AI 的嚴(yán)格監(jiān)管標(biāo)準(zhǔn),未來(lái) 20 年內(nèi)將會(huì)出現(xiàn)更多危險(xiǎn)。
5 月底,Altman 又和谷歌 DeepMind、Anthropic 的 CEO 以及一些知名 AI 研究人員簽署了一份簡(jiǎn)短聲明,聲稱「與流行病和核戰(zhàn)爭(zhēng)一樣,減輕 AI 導(dǎo)致滅絕的風(fēng)險(xiǎn)應(yīng)該成為全球優(yōu)先事項(xiàng)之一」。
6 月的舊金山科技峰會(huì)上,Sam Altman 提到在 AI 技術(shù)發(fā)展上「你不應(yīng)該信任一家公司,當(dāng)然也不應(yīng)該信任一個(gè)人」,他認(rèn)為這項(xiàng)技術(shù)本身以及它的好處、它的獲取、它的治理,都是屬于全人類的。
不過(guò)也有人(以馬斯克為代表)指責(zé) Altman「呼吁監(jiān)管」只是為了保護(hù) OpenAI 領(lǐng)導(dǎo)地位。Sam Altman 當(dāng)時(shí)回應(yīng)稱,「我們認(rèn)為,應(yīng)該對(duì)那些超過(guò)某一高度能力閾值的大型公司和專有模型進(jìn)行更多監(jiān)管,而對(duì)小型初創(chuàng)公司和開源模型的監(jiān)管應(yīng)該較少。我們已經(jīng)看到試圖對(duì)科技進(jìn)行過(guò)度監(jiān)管的國(guó)家所面臨的問(wèn)題,這不是我們所期望的?!?/p>
他還表示,「人們訓(xùn)練的模型遠(yuǎn)遠(yuǎn)超出了我們今天擁有的任何模型規(guī)模,但如果超出了某些能力閾值,我認(rèn)為應(yīng)該需要有一個(gè)認(rèn)證過(guò)程,同時(shí)還應(yīng)該進(jìn)行外部審核和安全測(cè)試。而且,這樣的模型需要向政府報(bào)告,應(yīng)該接受政府的監(jiān)督。」
與 Altman 觀點(diǎn)相反的是,就在 10 月 19 日,Meta 科學(xué)家 Yann LeCun(楊立昆)在接受英媒《金融時(shí)報(bào)》采訪時(shí)表達(dá)了自己反對(duì)過(guò)早監(jiān)管 AI 的立場(chǎng)。
Yann LeCun 是美國(guó)國(guó)家科學(xué)院、美國(guó)國(guó)家工程院和法國(guó)科學(xué)院院士,也因發(fā)明卷積網(wǎng)絡(luò),以及使用卷積神經(jīng)網(wǎng)絡(luò)(CNN)的光學(xué)字符識(shí)別和計(jì)算機(jī)視覺方面的工作而聞名。
2018 年,Yann LeCun 與 Yoshua Bengio 和 Geoffrey Hinton 一起獲得了圖靈獎(jiǎng)(通常被稱為「計(jì)算界的諾貝爾獎(jiǎng)」),上述三位通常被稱為「人工智能教父」和「深度學(xué)習(xí)教父」。
在訪談中,Yann LeCun 對(duì) AI 監(jiān)管整體呈現(xiàn)出較為消極的態(tài)度,他認(rèn)為,現(xiàn)在監(jiān)管 AI 模型就像在 1925 年監(jiān)管噴氣式航空飛機(jī)一樣(當(dāng)時(shí)這種飛機(jī)還沒有被發(fā)明出來(lái)),過(guò)早監(jiān)管 AI 只會(huì)加強(qiáng)大型科技公司的主導(dǎo)地位,扼殺競(jìng)爭(zhēng)。
「監(jiān)管 AI 的研發(fā)會(huì)產(chǎn)生令人難以置信的反效果,」Yann LeCun 表示,監(jiān)管 AI 的要求源于一些領(lǐng)先科技公司的「傲慢」或者「優(yōu)越感」,這些公司認(rèn)為只有他們才能獲得信任,安全地開發(fā) AI,「他們希望打著 AI 安全的幌子進(jìn)行監(jiān)管?!?/p>
「但事實(shí)上,在我們能夠設(shè)計(jì)出一個(gè)系統(tǒng),讓它在學(xué)習(xí)能力方面能夠與貓相匹敵之前,關(guān)于 AI 可能會(huì)帶來(lái)風(fēng)險(xiǎn)的辯論都為時(shí)過(guò)早」,Yann LeCun 表示,當(dāng)前一代 AI 模型的能力還遠(yuǎn)未達(dá)到一些研究人員所宣稱的那樣強(qiáng)大,「它們根本不了解世界的運(yùn)作方式,它們既沒有計(jì)劃能力,也沒辦法進(jìn)行真正的推理。」
在他看來(lái),OpenAI 和谷歌 DeepMind 一直「過(guò)分樂觀」地看待這個(gè)問(wèn)題的復(fù)雜性,事實(shí)上,距離 AI 達(dá)到人類智能水平還需要幾個(gè)「概念性的突破」。但即便到那時(shí),也可以通過(guò)在系統(tǒng)中編碼「道德品質(zhì)」來(lái)控制 AI,就像現(xiàn)在可以用制定法律來(lái)規(guī)范人類行為一樣。
本文來(lái)自微信公眾號(hào):極客公園 (ID:geekpark),作者:連冉
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。