原標(biāo)題:Lack of STEM diversity is causing AI to have a ‘white male’ bias
紐約大學(xué)AI Now研究所的一份報告發(fā)現(xiàn),主要由白人男性組成的編碼隊伍正在導(dǎo)致算法上的偏見。
該報告強(qiáng)調(diào),盡管逐漸縮小,但微軟(Microsoft)、谷歌和Facebook等大型科技公司缺乏多樣化的代表,正導(dǎo)致人工智能更多地迎合白人男性。
例如,F(xiàn)acebook的人工智能員工中只有15%是女性。在女性只占10%的谷歌,這個問題更加嚴(yán)重。
報告作者莎拉·邁爾斯·韋斯特、梅雷迪思·惠特克和凱特·克勞福德寫道:
“到目前為止,人工智能行業(yè)的多樣性問題及其構(gòu)建的系統(tǒng)中存在的偏見問題往往被單獨(dú)考慮。
我們認(rèn)為,這是同一個問題的兩個版本:勞動力歧視和制度建設(shè)方面的歧視問題交織在一起。”
隨著人工智能在社會上的應(yīng)用越來越廣泛,一些群體可能會因其優(yōu)勢而落后,同時“強(qiáng)化了‘正常人’的狹隘觀念”。
研究人員強(qiáng)調(diào)了已經(jīng)發(fā)生這種情況的例子:
亞馬遜備受爭議的reko人臉識別人工智能尤其難以識別深色皮膚的女性,但另一項分析發(fā)現(xiàn),其他人工智能在識別非白人男性時也面臨著同樣的困難。
一種簡歷掃描人工智能,它以之前成功申請者的例子為基準(zhǔn)。人工智能將簡歷中包含“女性”字樣或就讀于女子學(xué)院的人降級。
人工智能目前被部署在少數(shù)能改變生活的領(lǐng)域,但這種情況正在迅速改變。執(zhí)法部門已經(jīng)在尋求使用這種技術(shù)來識別罪犯,甚至在某些情況下是先發(fā)制人的,以及做出量刑決定——包括是否應(yīng)該準(zhǔn)予保釋。
研究人員指出:“利用人工智能系統(tǒng)對種族和性別進(jìn)行分類、檢測和預(yù)測,迫切需要重新評估。”“這些工具的商業(yè)部署令人深感擔(dān)憂。”
【來源:千家網(wǎng)】