IT之家 7 月 24 日消息,OpenAI 首席執(zhí)行官山姆?阿爾特曼(Sam Altman)本周二在 X 平臺發(fā)布推文,表示在新一輪內(nèi)部架構重組中,負責 AI 安全的主管亞歷山大?馬德里(Aleksander Madry)調(diào)崗,并將其重新分配到一個專注于人工智能推理的崗位。
阿爾特曼在推文中表示:“Aleksander 正在從事一個新的、非常重要的研究項目”。
阿爾特曼補充表示,OpenAI 高管華金?基諾內(nèi)羅?坎德拉(Joaquin Quinonero Candela)和莉莉安?翁(Lilian Weng)將在此期間接管 Preparedness 團隊。
OpenAI 安全團隊簡介
IT之家注:OpenAI 公司信任和安全部門主管戴夫?威爾納(Dave Willner)于 2023 年 7 月離職之后,公司于同年 10 月將該部門拆分為 3 個團隊:
安全系統(tǒng)(Safety Systems)團隊:專注于高級人工智能模型和人工通用智能的安全部署,專注于減少對當前模型和產(chǎn)品(如 ChatGPT)的濫用。
超級對齊(Superalignment)團隊:為該公司(希望)在更遙遠的未來擁有的超級智能模型的安全性奠定基礎
Preparedness 團隊:負責繪制前沿模型的新風險,并對前沿模型進行安全評估,評估和減輕與人工智能相關的“災難性風險”。
Aleksander 簡介
該團隊此前由 Aleksander 領導,幫助跟蹤、評估、預測和防范由人工智能模型帶來的災難性風險,負責繪制前沿模型的新風險,并對前沿模型進行安全評估。
Aleksander 還是麻省理工學院可部署機器學習中心(Center for Deployable Machine Learning)的主任和麻省理工學院人工智能政策論壇(MIT AI Policy Forum)的教員聯(lián)合負責人。
OpenAI 官方表示 Aleksander 在新崗位上仍將從事核心的人工智能安全工作。
廣告聲明:文內(nèi)含有的對外跳轉鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。