研究表明,AI 工具未能減少招聘偏見
來自劍橋大學(xué)的研究人員在《哲學(xué)與技術(shù)》(Philosophy&Technology)期刊上稱:“人們對于能解決面試偏見等問題的新方法越來越感興趣?!盇I的實(shí)際應(yīng)用正愈發(fā)普遍,但在通過視頻或應(yīng)用指標(biāo)遴選求職者方面仍處于“偽科學(xué)”的水平。
曾有人力資源專業(yè)機(jī)構(gòu)向媒體放話,稱AI技術(shù)有望對抗偏見。
研究發(fā)現(xiàn),2020年一項針對500名人力資源專業(yè)人士的跨國調(diào)查表明,近四分之一的從業(yè)者正在利用AI“以自動化方式選拔人才?!钡@種減少偏見的探索似乎并未奏效,劍橋大學(xué)性別研究中心博士后研究員KerryMackereth在采訪中表示,這事完全就是在“扯淡”。
她解釋道:“這些工具無法通過訓(xùn)練獲得單純識別工作相關(guān)特征的能力,也不能從招聘過程中剔除性別和種族因素。這是因為人類總認(rèn)為,一位員工是否優(yōu)秀會不可避免地與其性別、特征和種族存在內(nèi)在關(guān)聯(lián)?!?/p>
也有研究指出,一些公司還發(fā)現(xiàn)這些工具本身也存在問題。2018年,亞馬遜就宣布放棄開發(fā)AI驅(qū)動型招聘引擎,因為發(fā)現(xiàn)其會從簡歷中檢測性別并歧視女性求職者。
“現(xiàn)代顱相學(xué)”
研究人員還特別關(guān)注那些能夠“分析候選人言語與肢體動作細(xì)節(jié)”的工具,據(jù)稱這些細(xì)微要素也能體現(xiàn)對象是否符合特定職位的要求。
研究合作者EleanorDrage博士則坦言,這類視頻與圖像分析技術(shù)“沒有科學(xué)依據(jù)”,并將其斥為“現(xiàn)代顱相學(xué)”——即依靠顱骨形狀推斷性格與智力的虛假理論。
她強(qiáng)調(diào):“他們認(rèn)為可以通過面部觀察了解對方的性格。這種想法就跟測試工具一樣根本不靠譜。AI沒辦法‘透過’面孔看到真實(shí)的內(nèi)在?!?/p>
劍橋工具截屏
研究人員們還與六名計算機(jī)科學(xué)專業(yè)的學(xué)生一道,構(gòu)建起自己的簡化版AI招聘工具,基于所謂“五大”人格特征對候選者照片進(jìn)行評分:
平易近人型
外向型
開放型
負(fù)責(zé)型
神經(jīng)質(zhì)型
但最終評級還是會受到種種非相關(guān)變量的影響。
Drage博士寫道:“在使用這些工具時,可以看到只要調(diào)整圖像的對比度/亮度/飽和度,AI得出的性格結(jié)論就會發(fā)生變化。”
TheRegister指出,其他調(diào)查也得到了類似的結(jié)論。
德國一家公共廣播公司甚至發(fā)現(xiàn),在視頻中佩戴眼鏡或頭巾,也會影響到候選者的最終得分。
英國特許人事與發(fā)展協(xié)會(CharteredInstituteofPersonnelandDevelopment)的HayfaMohdzaini指出,他們的研究表明只有8%的企業(yè)雇主會使用AI技術(shù)來篩選求職人才。
“AI確實(shí)可以加大候選人才庫的整體規(guī)模,借此幫助組織提升多樣性水平——但如果規(guī)則和訓(xùn)練數(shù)據(jù)不完整或不準(zhǔn)確,也有可能錯失很多優(yōu)秀的求職者?!?/p>
她總結(jié)稱:“目前,用于對候選者言語和肢體語言進(jìn)行分析的AI軟件尚處于起步階段,其中當(dāng)然蘊(yùn)藏著巨大的機(jī)會,但也有風(fēng)險與之伴生?!?/p>
(智慧黨校)(智慧農(nóng)業(yè))(智慧工業(yè))
來源:至頂網(wǎng)