如果應用得當,人工智能可能會通過協(xié)助職位發(fā)布,評估簡歷和標準化面試流程來幫助彌合IT領(lǐng)域的多樣性鴻溝。
科技公司是勞動力多樣性問題的發(fā)源地。盡管布魯金斯在聘用亞裔美國人時遠遠超過了全國平均水平,但他們發(fā)現(xiàn)非裔美國人和拉丁裔人受雇于科技行業(yè)的比例僅為其他所有職業(yè)的一半。婦女也遠遠落后于男性。關(guān)于這些差距為什么會持續(xù)存在的理論并不缺乏,但是迄今為止,沒有任何解決方案對行業(yè)的問題產(chǎn)生了重大影響。現(xiàn)在是時候來看一下人工智能以消除我們招聘過程中的偏見了嗎?
首先,我們必須處理房間里的大象。當亞馬遜試圖將人工智能用于此目的時,它曾廣為人知。他們的招聘工具發(fā)展出了習以為常的性別偏見,使男性申請者勝于女性。模型僅與其數(shù)據(jù)一樣好。如果您給它提供了數(shù)千份簡歷,其中70%是男性,那么您認為關(guān)于性別平等的結(jié)論是什么?
在研究人工智能如何幫助消除招聘過程中的偏見時,需要關(guān)注三個關(guān)鍵領(lǐng)域。他們正在創(chuàng)建職位發(fā)布,評估簡歷以及面試候選人。
您可能沒有意識到,但是您精心制作的招聘廣告在不知不覺中阻止了合格的候選人應聘。在ZipRecruiter的一項研究中,70%的職位中包含男性單詞。這一發(fā)現(xiàn)遍及所有行業(yè)。當措辭更改為對性別更加中立時(使用諸如支持和理解之類的詞而不是積極進取或領(lǐng)導者之類的詞),招聘經(jīng)理的回應率增加了42%。那么AI如何發(fā)現(xiàn)這些失衡呢?通過允許該算法遍歷數(shù)百萬個招聘廣告及其相應的簡歷,它可以識別隱藏在數(shù)據(jù)中的模式。僅通過在帖子中使用包容性寫作,我們就不會拒絕合格的申請人,并且將最大限度地提高我們的選擇范圍。
我們可能有一個充滿多樣性的簡歷庫,但我們加劇了下一個問題-評估簡歷。一個職位發(fā)布可能會吸引100個簡歷。隨著最近遠程工作的爆炸式增長,響應速度甚至可以進一步提高。人類不可能公平地評估數(shù)百名候選人。我們在不知不覺中偏向于淘汰那些不適合我們預設(shè)模式的候選人。他們上了正確的大學嗎?他們上次在哪里工作?他們被雇員轉(zhuǎn)介了嗎?這些限定詞中的每一個都從我們的申請人池中剔除多樣性。人工智能可以提供幫助。在采用基于技能的方法時,您要公平對待競爭環(huán)境,因為AI會故意忽略所有人口統(tǒng)計細節(jié),以使資歷為零。它在幾秒鐘內(nèi)消化成千上萬份簡歷的同時做到了這一點。仍然,我們必須要小心。如果我們提供模型垃圾,它將產(chǎn)生垃圾。在公司的最佳績效上對我們的算法進行校準在紙面上似乎是理想的選擇,但是除非您已經(jīng)擁有一支多樣化的員工隊伍,否則您只會使陳舊的聘用做法永存。
-
算法
+關(guān)注
關(guān)注
23文章
4608瀏覽量
92844 -
AI
+關(guān)注
關(guān)注
87文章
30763瀏覽量
268906 -
人工智能
+關(guān)注
關(guān)注
1791文章
47208瀏覽量
238284
發(fā)布評論請先 登錄
相關(guān)推薦
評論