IT之家 7 月 13 日消息,美國生成式人工智能協(xié)會 (Association for Generative AI)計算機器全球技術(shù)政策委員會 (ACM TPC) 日前發(fā)布了《生成式人工智能技術(shù)的開發(fā)、部署和使用原則》,日前已經(jīng)由 ACM 的美國技術(shù)政策委員會(USTPC)和歐洲技術(shù)政策委員會(Europe TPC)通過。
據(jù)悉,該原則旨在促進有關(guān)生成和所有其他人工智能技術(shù)的公平、準確和有益的決策。不過 ACM 方面并未就此敦促推行具體的立法。
ACM 美國技術(shù)政策委員會主席 Jeremy Epstein 表示,“我們會直接回應立法機構(gòu)的意見征詢,但不會對法案或其中的部分內(nèi)容公開表態(tài)。”
ACM 成立于 1947 年,號稱是“世界上最大的科學和教育計算協(xié)會”,擁有約 110000 名學生和專業(yè)會員。他們認為,生成式 AI 日益強大,或?qū)ι鐣?gòu)成嚴重風險,目前的技術(shù)安全使用指南不足,因此需要建立新標準,以確??梢?guī)避該技術(shù)可能帶來的危害。
此次發(fā)布的原則中,有四項原則專門針對生成式 AI,另外四項原則改編自 TPC 2022 年的 《負責任的算法系統(tǒng)聲明》原則,IT之家將原則全文置于下方:
生成式 AI 特定原則
部署和使用的限制和指南: 應與所有利益相關(guān)者協(xié)商,審查和應用書面或修訂的法律和法規(guī),以在需要時限制生成人工智能技術(shù)的部署和使用,以最大程度地減少危害。如果沒有明確和充分的保障措施,包括 “human in the loop” 以及相關(guān)利益相關(guān)者之間的明確共識,即該系統(tǒng)的好處將大大超過其潛在的負面影響,則不應允許任何高風險的人工智能系統(tǒng)運行。一種方法是定義風險等級,最高級別為不可接受的風險,最低級別為最小風險。
所有權(quán):知識產(chǎn)權(quán) (IP) 法律和法規(guī)尚未充分考慮生成式人工智能系統(tǒng)的結(jié)構(gòu)和功能的固有方面。
個人數(shù)據(jù)控制: 生成式人工智能系統(tǒng)應該允許人們選擇不使用他們的數(shù)據(jù)來訓練系統(tǒng)或促進其信息生成。
可糾正性: 生成人工智能系統(tǒng)的提供者應創(chuàng)建和維護公共存儲庫,可以記錄系統(tǒng)所犯的錯誤,并可以選擇進行更正。
改編的先前原則
透明度: 任何使用生成式人工智能的應用程序或系統(tǒng)都應向適當?shù)睦嫦嚓P(guān)者明確披露。
可審計性和可質(zhì)疑性: 生成人工智能系統(tǒng)的提供者應確保盡可能記錄系統(tǒng)模型、算法、數(shù)據(jù)和輸出(適當考慮隱私),以便在適當?shù)那闆r下對其進行審計和 / 或質(zhì)疑。
限制環(huán)境影響: 鑒于生成式人工智能模型對環(huán)境的巨大影響,建議就方法論達成共識,以衡量、歸因并積極減少此類影響。
更高的安全性和隱私性: 生成式人工智能系統(tǒng)容易受到各種新的安全和隱私風險的影響,包括新的攻擊向量和惡意數(shù)據(jù)泄露等。
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。