IT之家 8 月 30 日消息,OpenAI 一直致力于開發(fā)能夠造福全人類的人工智能技術(shù),然而最近的一份報告揭示了一個令人擔(dān)憂的現(xiàn)象:近一半曾專注于超級智能 AI 長期風(fēng)險的研究人員已經(jīng)離開了這家公司。
據(jù) Fortune 報道,OpenAI 前治理研究員 Daniel Kokotajlo 表示,在過去幾個月里,OpenAI 幾乎一半的 AGI 安全團隊成員已經(jīng)離職。這引發(fā)了外界對公司是否正在忽視 AI 安全性的擔(dān)憂。
AGI 安全研究人員主要負責(zé)確保未來開發(fā)的 AGI 系統(tǒng)不會對人類構(gòu)成生存威脅。然而,隨著 OpenAI 越來越專注于產(chǎn)品和商業(yè)化,研究人員的離職意味著公司的安全研究團隊正在逐漸縮減。
Kokotajlo 指出,自 2024 年以來,OpenAI 的 AGI 安全團隊已經(jīng)從約 30 人減少到 16 人左右。他認為,這并不是一個有組織的行動,而是個人逐漸失去信心而離職。
OpenAI 發(fā)言人對此表示,公司為能夠提供最有能力、最安全的人工智能系統(tǒng)感到自豪,并相信自己具有解決風(fēng)險的科學(xué)方法。
IT之家注意到,今年早些時候,OpenAI 聯(lián)合創(chuàng)始人、首席科學(xué)家 Ilya Sutskever 宣布辭去 OpenAI 職務(wù),其領(lǐng)導(dǎo)的負責(zé)安全問題的“超級對齊”團隊也遭到解散。
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。