本文來自微信公眾號:SF 中文 (ID:kexuejiaodian),作者:SF
把 AI 應用于戰(zhàn)爭將會帶來可怕的、不可控的后果。如果 AI 真的向人類宣戰(zhàn),我們很可能毫無勝算。
文 | 斯蒂芬?凱利(Stephen Kelly)
譯 | 禮世杰
編 | 陳強
原文刊載于《科學焦點》2023 年第 12 期
最新科幻電影《AI 創(chuàng)世者》(The Creator)講述的是一場人類與人工智能(AI)之間的存亡之戰(zhàn)。這種科幻主題其實不算新穎,但與經(jīng)典科幻電影《終結(jié)者》(Terminator)的關鍵區(qū)別在于,這部電影描繪的未來已經(jīng)不再是遙遠的幻想,而是越來越接近科學事實。
比如說,最近幾個月,我們看到了許多關于 AI 會對人類構成“生存威脅”的警告。AI 不僅有朝一日能寫出比我這篇專欄更精彩的文章,還可能在戰(zhàn)爭領域中引發(fā)可怕的、不可控的后果。
如果 AI 能自主地操控武器
顯然,最令人擔憂的問題是,未來 AI 也許能自主地操控武器。《四個戰(zhàn)場:人工智能時代的力量》(Four Battlegrounds: Power in the Age of Arti?cial Intelligence)一書的作者、新美國安全中心副總裁保羅?沙爾(Paul Scharre)引用了幾年前美國國防部高級研究計劃局舉辦的“阿爾法狗斗”(AlphaDog?ght),來說明這一問題的嚴峻性?!鞍柗ü范贰笔且粓鋈藱C對決的空戰(zhàn)模擬比賽,但在比賽中,AI 輕松擊敗了經(jīng)驗豐富的人類飛行員。
沙爾表示:“AI 不僅以 15 比 0 的大比分戰(zhàn)勝了人類飛行員,還展現(xiàn)出了人類難以企及的技能。比如說,它能以非常高的精度開火射擊。”
然而,賦予 AI 做出生死抉擇的權力也會引發(fā)諸多令人不安的問題。例如,如果 AI 犯了一個錯誤,意外地殺死了一個平民,這會怎樣?“這將構成戰(zhàn)爭罪,”沙爾說,“而困難在于,可能根本沒有人對此事負責。”
如果 AI 被用于戰(zhàn)術制定和情報分析
不過,在不久的將來,AI 在戰(zhàn)爭領域中最可能被用于戰(zhàn)術制定和情報分析。沙爾說:“AI 可以更有效地處理信息,提高軍隊的作戰(zhàn)效率。我相信,軍隊會越來越傾向于將決策權交給 AI,因為戰(zhàn)場是一個殘酷的競爭場所。如果未能抓住一個稍縱即逝的機會,那你將處于巨大的劣勢之中?!?/p>
沙爾認為,這可能引發(fā)一場 AI 軍備競賽。“一些學者甚至還提出了‘戰(zhàn)場奇點’假說,”他說道,“也就是說,AI 的決策速度將會超過人類的理解速度,而人類實際上不得不將戰(zhàn)場上的決策權全都交給 AI。”
當然,在這種情況下,人類就有可能失去對 AI 的控制,甚至被 AI 攻擊。因此,美國制定了一項政策,規(guī)定任何與核武器有關的決定都必須有人類參與。
沙爾甚至認為,如果最壞的情況發(fā)生了,AI 真的向人類宣戰(zhàn),我們很可能毫無勝算。
“我的意思是,黑猩猩能在戰(zhàn)爭中戰(zhàn)勝人類嗎?”他又舉例說,“AlphaGo 不僅戰(zhàn)勝了世界圍棋冠軍,甚至從對弈過程來看,AlphaGo 的實力明顯超過人類的頂尖棋手。而且這種變化發(fā)生得非???,就在七八年前,這種情況還是不可想象的?!?/p>
“我們正在建造越來越強大的 AI 系統(tǒng),將其應用到各個領域中,但它們也變得越來越難以理解和掌控。我認為,如果我們真能制造出比我們更聰明的機器,那么我們將會面臨很多問題?!?/p>
結(jié)論
所以,按照目前的發(fā)展速度,如果 AI 失控,人類可能面臨巨大的威脅。
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。