IT之家 4 月 28 日消息,根據(jù)一項早期的歐盟協(xié)議,部署生成性人工智能工具(如 ChatGPT)的公司將必須披露用于開發(fā)其系統(tǒng)的任何有版權的材料,該協(xié)議可能為世界上第一部管理該技術的全面法律鋪平道路。
據(jù)路透社報道,歐盟委員會兩年前開始起草《人工智能法案》,以規(guī)范這一新興技術,該技術在 OpenAI 發(fā)布 ChatGPT 后迎來了熱潮。歐洲議會的成員已經(jīng)同意將草案推進到下一階段,即三方對話,屆時歐盟立法者和成員國將敲定法案的最終細節(jié)。
根據(jù)提案,AI 工具將根據(jù)其被認為的風險水平進行分類:從最低到有限、高和不可接受。可能引起關注的領域包括生物識別監(jiān)控、傳播虛假信息或歧視性語言等。IT之家注意到,雖然高風險的工具不會被禁止,但使用這些工具的人需要在其操作中保持高度透明。
使用生成式 AI 工具的公司,還必須披露用于開發(fā)其系統(tǒng)的任何受版權保護的材料。一位知情人士稱,這一條款是過去兩周內(nèi)擬定的后期補充條款。該人士還說,一些委員會成員最初提出完全禁止使用受版權保護的材料來訓練生成式 AI 模型,但這一提議被放棄,轉而采取透明度要求。
歐洲議會副議員 Svenja Hahn 表示:“在保守派希望進行更多監(jiān)控和左派幻想過度監(jiān)管的情況下,議會找到了一個堅實的折中方案,可以適度監(jiān)管人工智能,保護公民的權利,以及促進創(chuàng)新和推動經(jīng)濟發(fā)展?!?/p>
廣告聲明:文內(nèi)含有的對外跳轉鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。