設置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

被谷歌解雇后,AI 倫理研究員米切爾加入人工智能創(chuàng)業(yè)公司

2021/8/25 8:34:48 來源:新浪科技 作者:- 責編:信鴿

8 月 25 日早間消息,谷歌 Ethical AI 人工智能倫理研究小組前負責人瑪格麗特?米切爾(Martaret Mitchell)將加入人工智能創(chuàng)業(yè)公司 Hugging Face,開發(fā)工具確保算法的公平性。今年 2 月,米切爾因為一篇共同撰寫的批評論文而被谷歌解雇。

Hugging Face 維護一個代碼庫,用戶可以通過這個代碼庫分享人工智能模型并展開合作。這是個開源平臺,已經被 5000 多家組織使用,包括谷歌、Facebook 和微軟。米切爾計劃從 10 月份開始,首先開發(fā)一套工具,確保用于訓練人工智能算法的數(shù)據(jù)集不存在偏見。目前,用來訓練模型進行預測或決策數(shù)據(jù)集往往由于原始數(shù)據(jù)的不完整而在某個人群中表現(xiàn)不佳,例如女性、少數(shù)族裔和老年人。

米切爾和 Hugging Face 此前已經有合作關系。為了確保人工智能模型的公平性,Hugging Face 此前已建議工程師和科學家在發(fā)布項目后,使用米切爾在谷歌開發(fā)的 Model Cards 工具進行評估,分析優(yōu)缺點。Hugging Face 聯(lián)合創(chuàng)始人及 CEO 克萊門特?德蘭格(Clement Delangue)表示,在發(fā)布至 Hugging Face 的 2 萬個項目中,有約 1/4 使用了 Model Cards 工具。

米切爾在一次采訪中表示,對于用軟件評估人工智能系統(tǒng),“應該有非常嚴肅和積極的工作去做”?!斑@對我來說是個很酷的機會,可以幫助模型開發(fā)者更好地理解,他們正在開發(fā)模型的危害和風險”。

在從谷歌離職后,米切爾表示,她希望在一家規(guī)模較小的公司工作,從而可以從一開始就將人工智能倫理納入在考慮范圍內。她說,Hugging Face“已經建立了很多基本的倫理價值觀”,“很明顯,我不需要強行插手或改造類似倫理流程之類的東西”。

谷歌 Ethical AI 研究團隊此前經歷了動蕩。去年,谷歌解雇了該團隊的另一名聯(lián)合負責人蒂姆尼特?格布魯(Timnit Gebru),原因是她拒絕撤回與米切爾及他人合著的一篇論文。這篇論文涉及對谷歌技術的批評。在格布魯退出后,作為團隊負責人的米切爾開始對谷歌及其管理層展開激烈的批評,包括谷歌未能認真對待外界對其人工智能產品的擔憂,以及格布魯遭到了不公的待遇。在人工智能研究領域,格布魯是為數(shù)不多的知名黑人女性之一。谷歌則表示,米切爾違反了公司的行為準則和信息安全政策。

谷歌的員工對于公司處理此事的方式感到憤怒。今年早些時候,對十多名在職員工和前員工,以及人工智能學術研究人員的采訪顯示,由于處理騷擾、種族主義和性別歧視的方式,谷歌在人工智能領域的工作在過去兩年多的時間里一直備受爭議。

Hugging Face 的工具部分免費,部分收費。目前該公司有 300 多家付費客戶,其中包括英特爾和高通。雖然 Hugging Face 的 50 多名員工中也有幾名其他的人工智能倫理專家,但 CEO 德蘭格希望所有員工都能往這個方向努力。

他說:“我們不想只是建立輔助性質的人工智能倫理團隊,而是讓這件事成為公司的核心,并確保深入至每個人的工作中。米切爾不會組建一個包含幾名成員,只是偶爾提供咨詢建議的團隊?!?/p>

廣告聲明:文內含有的對外跳轉鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。

軟媒旗下網(wǎng)站: IT之家 最會買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機APP應用 魔方 最會買 要知