北京時間 9 月 9 日上午消息,據(jù)報道,去年 9 月,谷歌的云計算部門考慮使用人工智能幫助一家金融公司決定向誰借錢。
經(jīng)過數(shù)周的內(nèi)部討論后,他們拒絕了客戶的提議,認(rèn)為該項(xiàng)目在道德上過于冒險,因?yàn)槿斯ぶ悄芗夹g(shù)可能會在種族和性別等因素上延續(xù)偏見。
自去年年初以來,由于擔(dān)心對文化因素不夠敏感,谷歌還放棄了分析情感的新型人工智能功能,微軟也限制了模仿聲音的軟件,IBM 則拒絕了客戶對高級面部識別系統(tǒng)的請求。
根據(jù)對這三大美國科技巨頭人工智能倫理負(fù)責(zé)人的采訪,所有這些技術(shù)都是公司的高管小組或其他領(lǐng)導(dǎo)人親手干預(yù)的。
這是媒體首次披露他們針對這些技術(shù)行使的否決權(quán)和審議過程,這也反映出整個行業(yè)涌現(xiàn)出一股新生力量,可以在追求利潤豐厚的人工智能系統(tǒng)與加大社會責(zé)任考量之間達(dá)成平衡。
“有機(jī)會,也有傷害,我們的工作是最大限度地增加機(jī)會,并最大限度地減少傷害?!碧乩孜?皮佐?弗雷 (Tracy Pizzo Frey)說,他是谷歌云的兩個道德委員會成員,還是谷歌人工智能社會責(zé)任負(fù)責(zé)人。
但判斷起來并非易事。
例如,微軟的首席人工智能責(zé)任官娜塔莎?克蘭普頓(Natasha Crampton)表示,微軟的語音模仿技術(shù)可以讓聾啞人重新“發(fā)聲”,但同時也會加大政治深度造假等風(fēng)險,因此必須在二者之間找到平衡點(diǎn)。
激進(jìn)人士表示,可能對社會產(chǎn)生廣泛影響的決定不應(yīng)單獨(dú)在企業(yè)內(nèi)部決定。他們認(rèn)為,道德委員會不可能做到真正獨(dú)立,他們的公開透明度受到競爭壓力的限制。
歐洲公民自由聯(lián)盟的宣傳負(fù)責(zé)人賈斯查?加拉斯基(Jascha Galaski)認(rèn)為外部監(jiān)督是未來的趨勢,美國和歐洲政府確實(shí)正在為這個剛剛起步的領(lǐng)域制定規(guī)則。
如果企業(yè)的人工智能倫理委員會“真的變得獨(dú)立透明 —— 這都是非常烏托邦主義的 —— 那可能好于任何其他解決方案,但我認(rèn)為這不現(xiàn)實(shí)?!奔永够f。
兩家公司表示,他們歡迎對人工智能的使用方式進(jìn)行明確監(jiān)管,這對于客戶和公眾的信心都至關(guān)重要。從這一點(diǎn)來講,這與汽車安全規(guī)則類似。他們說,在具體行事過程中充分考慮各種責(zé)任,也符合他們的經(jīng)濟(jì)利益。
然而,他們希望任何規(guī)則都能足夠靈活,從而跟上創(chuàng)新步伐及其造成的最新困境。
IBM 表示,該公司的人工智能倫理委員會正在考慮許多復(fù)雜問題,包括如何監(jiān)管一個新興領(lǐng)域:將計算機(jī)與大腦相連的植入物和可穿戴設(shè)備。
IBM 首席隱私官克里斯蒂娜?蒙哥馬利(Christina Montgomery)表示,這種神經(jīng)技術(shù)可以幫助殘疾人控制身體運(yùn)動,但也存在許多隱憂,例如黑客有可能借此操縱人的思想。
情緒識別
科技公司承認(rèn),就在 5 年前,當(dāng)他們剛剛推出聊天機(jī)器人和照片標(biāo)記等人工智能服務(wù)時,幾乎沒有任何道德保障,只能通過后續(xù)更新解決濫用問題或有偏見的結(jié)果。
但隨著人工智能因?yàn)槭《媾R越來越多的政治和公眾審查,微軟(2017 年)、谷歌(2018 年)和 IBM(2018 年)相繼成立了道德委員會,從一開始就新服務(wù)進(jìn)行審查。
谷歌表示,去年 9 月,當(dāng)一家金融服務(wù)公司認(rèn)為人工智能比其他方法更適合評估人們的信用時,它便陷入了“放貸困境”。
該項(xiàng)目似乎非常適合谷歌云,谷歌的人工智能技術(shù)有助于檢測異常交易,因而吸引了德意志銀行、匯豐銀行和紐約梅隆銀行等客戶。
谷歌云預(yù)計基于人工智能的信用評分可能會成為一個每年價值數(shù)十億美元的市場,他們希望在其中站穩(wěn)腳跟。
然而,皮佐?弗雷透露,該部門的道德委員會由大約 20 名負(fù)責(zé)審查潛在交易的經(jīng)理、社會科學(xué)家和工程師組成,他們在去年 10 月的會議上一致投票反對該項(xiàng)目。
該委員會總結(jié)道,人工智能系統(tǒng)需要從過去的數(shù)據(jù)和模式中學(xué)習(xí),因此有可能模仿世界各地對有色人種和其他邊緣群體的歧視性做法。
更重要的是,在內(nèi)部被稱作“檸檬水”(Lemonaid)的委員會制定了一項(xiàng)政策,規(guī)定在此類問題得到解決之前,放棄所有與信譽(yù)相關(guān)的金融服務(wù)交易。
“檸檬水”過去一年駁回了三項(xiàng)類似的提議,其中包括一家信用卡公司和一家商業(yè)貸款機(jī)構(gòu),而皮佐?弗雷和負(fù)責(zé)銷售的同事一直渴望就這個問題制定更廣泛的規(guī)定。
谷歌還表示,該公司的云計算業(yè)務(wù)還有第二個名為“冰茶”(Ice Tea)倫理委員會,他們今年正在審查 2015 年發(fā)布的一項(xiàng)服務(wù),將人們的照片按喜悅、悲傷、憤怒和驚訝四種表情分類。
在此之前,谷歌總公司的道德委員會,即高級技術(shù)審查委員會(ATRC)剛剛作出裁決,禁止推出與識別情感有關(guān)的新服務(wù)。
谷歌責(zé)任創(chuàng)新團(tuán)隊(duì)的創(chuàng)始人兼負(fù)責(zé)人珍?吉耐(Jen Gennai)表示,由十多位高管和工程師組成的 ATRC 明確認(rèn)定,推斷情緒的技術(shù)不夠敏感,其中一個原因是,在不同文化中,面部線索與具體感受存在著不同的關(guān)聯(lián)。
吉耐和皮佐?弗雷表示,“冰茶”已經(jīng)封殺了云工具的對 13 種情緒判斷,包括尷尬和滿足,并且可能很快會完全放棄這項(xiàng)服務(wù),轉(zhuǎn)而采用一種新系統(tǒng),屆時只會對皺眉和微笑等動作進(jìn)行描述,而不加以解讀。
聲音和面孔
與此同時,微軟人工智能高管克蘭普頓表示,微軟開發(fā)的軟件可以利用一個簡短的樣本重現(xiàn)某人的聲音,但該公司的敏感用法委員會花了兩年多時間,針對與此有關(guān)的道德問題進(jìn)行辯論,并咨詢了公司總裁布拉德?史密斯(Brad Smith)。
她說,該委員會包含人權(quán)、數(shù)據(jù)科學(xué)和工程等領(lǐng)域的專家,他們最終為 Custom Neural Voice 今年 2 月全面發(fā)布開了綠燈。但對它的使用設(shè)置了限制,包括確認(rèn)受試者的同意聲明,并且根據(jù)公司的相關(guān)政策培訓(xùn)了一個“負(fù)責(zé)任的人工智能冠軍”(Responsible AI Champs)團(tuán)隊(duì)。
IBM 的人工智能委員會大約包含 20 名部門領(lǐng)導(dǎo),在新冠疫情初期,當(dāng)客戶要求定制面部識別技術(shù),以識別發(fā)燒情況和面部遮蓋物時,他們陷入了困境。
該委員會聯(lián)席主席蒙哥馬利表示,他們拒絕了這個要求,認(rèn)定人工檢查足以減少對隱私的侵犯,因?yàn)檎掌粫槐A舻饺魏稳斯ぶ悄軘?shù)據(jù)庫中。
6 個月后,IBM 宣布停止提供面部識別服務(wù)。
壯志未酬
為了保護(hù)隱私和其他自由,歐盟和美國的立法者希望加大對人工智能系統(tǒng)的控制。
歐盟的人工智能法案有望于明年通過,該法案將禁止在公共場所進(jìn)行實(shí)時人臉識別,并要求科技公司審查高風(fēng)險應(yīng)用,例如用于招聘、信用評分和執(zhí)法的應(yīng)用。
美國國會議員比爾?福斯特(Bill Foster)曾就算法如何加劇金融服務(wù)和住房領(lǐng)域的歧視舉行聽證會,他表示,針對人工智能出臺新的法律將為供應(yīng)商營造一個公平的市場。
“當(dāng)你要求一家公司為了社會利益減少利潤時,他們會說,‘我們的股東怎么辦?怎么不處罰競爭對手?’所以才需要細(xì)致的監(jiān)管,”這位來自伊利諾伊州的民主黨人說。
“可能有些領(lǐng)域非常敏感,你會看到科技公司有意不去涉足,直到有明確的規(guī)則出現(xiàn)?!?/p>
事實(shí)上,一些人工智能的進(jìn)步可能會被擱置,直到企業(yè)能在不投入大量工程資源的情況下應(yīng)對道德風(fēng)險。
在谷歌云去年 10 月拒絕為金融公司定制人工智能服務(wù)后,“檸檬水”委員會告訴銷售團(tuán)隊(duì),該部門的目標(biāo)是有朝一日能開發(fā)與信貸相關(guān)的應(yīng)用程序。
谷歌云在發(fā)給員工的政策中表示,首先,必須通過研究來打擊不公平的偏見,以此匹配谷歌云通過“高度敏感”的技術(shù)提高金融包容性的雄心壯志。
“在那之前,我們無法部署解決方案?!?/p>
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。