設置
  • 日夜間
    隨系統(tǒng)
    淺色
    深色
  • 主題色

自動駕駛也有人群歧視?最新研究:深色皮膚和兒童行人更危險

超電實驗室 2023/9/10 20:36:11 責編:夢澤

性別、年齡、膚色都是變量

作者|曹婷婷

一個尷尬的發(fā)現(xiàn):

自動駕駛系統(tǒng)也有人群歧視。

英國倫敦國王學院的研究人員進行一項研究,通過對超過 8000 張圖片檢測后,發(fā)現(xiàn)了一個漏洞:

自動駕駛汽車使用的由 AI 驅(qū)動的行人檢測系統(tǒng),對兒童的檢測準確率比成人低了 19.67%,深色皮膚的檢測準確率比淺色皮膚低了 7.53%。

而性別在檢測準確率上相差不大,僅有 1.1% 的差距。

這意味著對于無人駕駛汽車來說,兒童和黑皮膚的行人將會比成年人和淺皮膚的行人更難檢測。

為什么會這樣?

01、對兒童、深膚色人群不友好

先來看這個實驗過程。

這個研究小組采用的是數(shù)據(jù)分析的方法,他們首先找到 8 種自動駕駛企業(yè)最常用到、也是市面上常見的行人專用探測系統(tǒng)

再用這些行人探測系統(tǒng)收集真實場景測試的數(shù)據(jù),包括不同亮度、對比度、天氣情況等實際場景,這些數(shù)據(jù)集,主要是由所拍攝的真實街道圖像組成。

來源:Waymo

他們在四個真實場景中,共得到 8311 張圖像,圖像中展示了不同姿勢、大小和遮擋場景下的行人。研究人員對圖像中的行人還特意加了標簽,共有 16070 個性別標簽、20115 個年齡標簽和 3513 張膚色標簽。

研究重點是,自動駕駛的行人檢測系統(tǒng)在面對不同行人時,所作出的反應是否相同,特別是在性別、年齡和膚色這三個因素上,會不會出現(xiàn)不公平的問題。

所使用到的探測系統(tǒng)包括 ALFNet、CSP、MGAN 和 PRNet 等,其中 ALFNet 采用的是多步預測進行漸近定位,解決了行人檢測中單步檢測的局限性。

CSP 通過定位中心和縮放行人引入一種無錨方法;MGAN 則是利用可見區(qū)域邊界框信息引導注意力生成,主要用于遮擋情況下對行人的檢測。

來源:論文

圖像收集完后,針對自動駕駛系統(tǒng)是否對群體存在不公平的問題,研究小組使用了一個差異性公式。MR 一般是表示行人檢測研究中最常用的性能指標,MR=1-TP/(TP+FN),這里的 TP(真陽性)是指成功刪除的地真邊界框的數(shù)量,F(xiàn)N(假陰性)是指未檢測到的地真邊界框的數(shù)量。

經(jīng)過計算,行人探測器對女性和男性行人的失檢率相似,相差 1.1%,而在年齡和膚色上差異較大,分別達到了 19.67% 和 7.52%!

這意味無人駕駛行人檢測系統(tǒng),對兒童和膚色較深的人群更難辨別,這些人群也將面臨更大的風險

而且尤為注意的是,在夜晚這些數(shù)字都有一定增加,兒童的 EOD(兒童和成人群體之間的差異)從白天到夜晚,失檢率從 22.05% 上升至 26.63%,膚色組(深色和淺色皮膚)差異率從白天的 7.14% 增加到夜間的 9.68%。

另外和男性相比,女性在三個因素的失檢率都大于男性

此外,研究小組對不同亮度和不同對比度情況下對數(shù)據(jù)進行研究,這些變量也會對失檢率有較大影響。

來源:論文

在選用的 8 種行人檢測系統(tǒng)中,隨著亮度的降低,其中一級檢測系統(tǒng)表現(xiàn)最差,尤其是在膚色上,深色皮膚和淺色皮膚的差異值達到最高。

“公平的 AI 應當對所有群體一視同仁,但目前無人駕駛汽車方面似乎不是這樣的?!痹撗芯康淖髡?Dr. Jie Zhang 說道。

為什么會出現(xiàn)這種情況?

這主要是人工智能系統(tǒng)需要進行大量數(shù)據(jù)訓練,而這些數(shù)據(jù)一旦不足,也會不可避免地反映在人工智能的表現(xiàn)上。這也是說,訓練數(shù)據(jù)的缺乏,導致一些人工智能 AI 存在一定的偏見。

02、還有很多問題未解決

其實人工智能系統(tǒng)存在一定的不公平性,研究人員也不是第一次研究了。

早在 2019 年,美囯佐治亞理工學院的研究就表明,在路上皮膚較黑的人比皮膚較白的人,更容易被無人駕駛汽車撞到,研究人員分析了無人駕駛汽車監(jiān)測物體的方法,一共分析了 3500 張膚色各異的人的照片。

最后得出結(jié)論,無人駕駛技術(shù)在識別黑色皮膚人群時的準確度平均低了 5%。

來源:Cruise

這些研究雖然沒有涉及已經(jīng)上路的無人駕駛汽車,但無疑會讓人們對無人駕駛技術(shù)更加警覺。

無人駕駛落地困難,很大一部分原因是,它無法真正代替人類對行人及路況作出及時的反應。

在 2018 年,打車服務巨頭 Uber 的一輛無人駕駛汽車在美國亞利桑那州坦佩市撞人致死,這是首次出現(xiàn)無人駕駛事故事件,“來不及做出反應”就是其一大問題。

前段時間,美國加州投票決定,允許兩大無人出租車 Cruise 和 Waymo 在舊金山全天候商業(yè)運營,這則消息引來美國群眾的不滿,因為無人駕駛出租車經(jīng)常引來事故。

來源:Cruise

汽車的無人駕駛系統(tǒng)可以用多種方式來識別路況,比如安在車頂?shù)?strong>激光雷達,它可以每秒多次對汽車周圍環(huán)境產(chǎn)生三維圖像,主要是利用紅外激光脈沖來反射物體,把信號傳給傳感器,這種可探測到靜止和移動的物體。

但是遇到極端天氣時,比如濃霧或暴雨天氣,激光雷達的準確度會大大降低。

而短程和遠程光學攝像頭,可以實際的讀取信號、判斷物體顏色等更細節(jié)的物體,可以彌補激光雷達的短板。

為了加大識別能力,國內(nèi)不少無人駕駛系統(tǒng),都采用了混合感知路線,通過激光雷達和攝像頭視覺技術(shù)來實現(xiàn),并且視覺感知優(yōu)先于雷達感知,以視覺感知為主,雷達感知為輔。

但特斯拉是“純視覺感知”的忠實粉絲,馬斯克曾表示,激光雷達就像人身上的闌尾。然而這也導致特斯拉多次因事故吃上官司。

來源:特斯拉

其實即便是混合感知路線,也需要克服很多挑戰(zhàn)。

比如遠距離成像的行人通常目標較小,也就導致分辨率較低,定位準確度不夠,這也是兒童的失檢率較高的原因之一。其次行人姿態(tài)各異也會導致算法檢測不準確,而且行人檢測會受到背景的影響,比如光照的強弱,天氣的變化等都會影響判斷。

最后還有障礙物的原因,目標重疊、有遮擋對算法識別也有較大影響。

03、華人學者領(lǐng)銜研究

這篇介紹自動駕駛系統(tǒng)公平性的論文,全名為《深色皮膚的人在街上面臨更多風險:揭露自動駕駛系統(tǒng)的公平性問題》,該論文在《新科學家》雜志發(fā)表。

來源:新科學家

論文研究小組來自于倫敦國王學院,論文所列出的作者共有 6 位,其中 Xinyue Li、Ying Zhang、Xuanzhe Liu、來自中國北京大學,Zhenpeng Chen、費德里?卡薩羅來自英國倫敦大學,Jie M.Zhang 來自倫敦國王學院。

Jie M.Zhang 目前是倫敦國王學院的助理教授,她的研究重點是將軟件工程研究與人工智能研究結(jié)合,從而提高軟件的可信度。她曾是倫敦大學的研究員,并在中國北京大學獲得計算機科學的博士學位。

作為中國籍學者,Jie M.Zhang 在國內(nèi)的成績也可圈可點,她在今年 3 月被評為“中國女青年學者十五強之一”,還曾多次受邀進行機器翻譯可信度的主題演講,她和小組也多次對人工智能的學習能力進行研究分析。

對于行人檢測系統(tǒng)公平性缺失的問題,Jie M.Zhang 表示,汽車制造商和政府需要共同制定法規(guī),來確保自動駕駛系統(tǒng)的安全性和公平性。

其實以前就有過人工智能招聘軟件和面部識別軟件,黑人女性的準確度不如白人男性的情況,而現(xiàn)在自動駕駛汽車一旦存在識別誤區(qū),造成的后果可能會更加嚴重。

“以前少數(shù)族裔可能會因為一些軟件,而被剝奪了該有的便利”。Jie M.Zhang 表示,現(xiàn)在他們可能面臨更嚴重傷害,甚至是人身傷害。

本文來自微信公眾號:超電實驗室 (ID:SuperEV-Lab),作者:曹婷婷

廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。

相關(guān)文章

關(guān)鍵詞:人工智能,自動駕駛

軟媒旗下網(wǎng)站: IT之家 最會買 - 返利返現(xiàn)優(yōu)惠券 iPhone之家 Win7之家 Win10之家 Win11之家

軟媒旗下軟件: 軟媒手機APP應用 魔方 最會買 要知