IT之家 7 月 26 日消息,據(jù)外媒 TechCrunch 報道,美國國會參議院司法委員會在昨日舉行了人工智能聽證會,在會中,多名 AI 行業(yè)從業(yè)者警告稱,人類無法妥當(dāng)控制飛速發(fā)展的 AI,因此未來幾年內(nèi) AI 恐造成嚴重危害,惡意分子有可能利用繞過監(jiān)管的 AI 工具制造生化武器。
參議院司法委員會小組委員會主席 Richard Blumenthal 主持了此次聽證會,他表示,人類已經(jīng)證明自己有能力發(fā)明當(dāng)時令人難以置信的新技術(shù)。他把 AI 比作美國的第二次“曼哈頓計劃”或 NASA 的第二次“載人登月計劃”,但臺下的業(yè)界代表卻更多表現(xiàn)出對 AI 的擔(dān)憂。
美國 AI 創(chuàng)業(yè)公司 Anthropic 的 CEO Dario Amodei 在聽證會上表示,他擔(dān)心尖端 AI 技術(shù)可能在短短兩年時間內(nèi)就會被用來制造危險的病毒和其他生化武器,該公司此前從谷歌獲得了 3 億美元(IT之家注:約 21.47 億元人民幣)的投資,并依靠谷歌的數(shù)據(jù)中心來訓(xùn)練“更具信賴性”的 AI 模型。
蒙特利爾大學(xué) AI 教授、“現(xiàn)代 AI 科學(xué)之父” Yoshua Bengio 則表示,他對 GPT-4 等模型實現(xiàn)的巨大飛躍感到震驚,他認為,當(dāng)下各國之間應(yīng)當(dāng)積極進行合作來控制 AI 的發(fā)展,建立類似核技術(shù)監(jiān)管規(guī)則的制度。
加州大學(xué)伯克利分校計算機科學(xué)教授斯 Stuart Russell 則認為,當(dāng)下的 AI 的工作方式充滿“不可知”性,與其他可控的強大技術(shù)相比,當(dāng)下 AI 缺乏一個“超級管理工具”,因此人們目前無法得知 AI 的實際意圖和所有可能做出的行為。
據(jù)悉,在過去六個月里,業(yè)界已經(jīng)將好萊塢大片中的“超級 AI”可能出現(xiàn)的時間點,從既定的幾十年后撥前至“僅僅幾年后”,而圍繞“超級 AI”可能產(chǎn)生的種種問題也隨之而出,引發(fā)了社會普遍的擔(dān)憂。
相關(guān)閱讀:
《黑客展示“沒有道德限制”的 WormGPT 聊天機器人:可自動生成木馬、釣魚鏈接》
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。