前段時間,由于美國“BLM”平權運動的持續發酵,IBM、谷歌等互聯網巨頭紛紛下架或停止了自家的 AI 人臉識別業務,因為這些業務被證實存在種族和性別偏見。
但從大廠不斷關閉的 AI 業務中,也有一些人找到了相反的創業方向,他們試圖利用 AI 工具來解決職場招聘過程中的歧視與偏見問題。
|
人工智能招聘工具
根據調研機構的分析,在世界財富 500 強企業中,有 98% 以上的企業在招聘過程中會使用 AI 簡歷過濾軟件,同時也有越來越多的中小型企業使用類似的招聘工具。但與 AI 人臉識別一樣,這些 AI 工具也存在偏見問題。
據外媒報道,兩年前,美國電商巨頭亞馬遜曾秘密下線了公司內部的一個 AI 招聘工具,原因是該系統在長期對求職者簡歷進行篩選的訓練過程中“學會”了性別歧視
即該 AI 在篩選簡歷時會更偏愛男性求職者,同時會自動降低一些女性求職者簡歷的評級。這一事件在當時也引發了人們對于 AI 招聘工具公平性的質疑。
近日,一家名為 GapJumpers 的 AI 創業公司聲稱,通過精心設計和訓練其 AI 模型,他們的 AI 招聘工具能夠在招聘流程中專門解決各種系統性偏見。
這不是一個簡單的任務:首先 AI 算法本身就存在一些性別和種族方面的偏見。而這家公司采用的策略是清除招聘程序中的身份識別信息,僅依靠匿名面試和技能測試來評定求職者與職位的匹配度,同時加入職位調劑的機制以吸引盡可能多的應聘者。
GapJumpers 是一家位于舊金山的初創公司,他們推出的 AI 招聘項目為求職者提供了一個平臺,該平臺使用機器學習算法對求職者進行僅與工作相關技能的評估,同時屏蔽所有的個人身份信息,再對每個候選人進行評分和排名。
該公司聯合創始人兼首席執行官 Kedar Iyer 表示,這種方法有助于減少傳統 AI 招聘工具對于簡歷內容的過分依賴,因為簡歷作為訓練數據的來源“充滿了偏見”,并避免類似亞馬遜的 AI 招聘工具在長期的簡歷篩選中將這樣的偏見不斷放大。
評論認為,這種減少歧視的刻意做法可能會鼓勵更多公司嘗試使用 AI 輔助招聘。隨著平權運動在西方國家獲得越來越廣泛的支持,越來越多的企業開始致力于構建企業結構多元化,像 GapJumpers 這樣的 AI 招聘業務也得到了很多潛在客戶的詢問。Iyer 說:“我們看到各種規模的公司都對提高他們的多元化越來越感興趣!
需要人工監督的人工智能
亞馬遜下線的 AI 招聘工具帶來的另一個教訓是,在開發類似的 AI 招聘工具時,僅僅關注算法的設計和訓練是不夠的,因為 AI 軟件幾乎總是需要不斷的人工監督。
對于開發人員和招聘人員來說,這意味著他們不能盲目地信任 AI 工具的篩選結果 —— 他們還需要了解其背后的流程,不同的訓練數據如何影響其行為,并監控可能出現的偏見。
來自北卡羅來納州立大學的信息技術教授 Fay Cobb Payton 表示,科技企業中的種族偏見由來已久,“ 因為該行業中的部分群體(例如非裔美國人、女性)相對較少,而該行業的平均薪酬又恰好高于其他行業,這就造成了人們常常議論的 ‘種族貧富差距’。
而一直以來,這部分群體在招聘過程中就難以進入科技公司(特別是研發部門),從而形成了一個帶有偏見的歷史循環!
Payton 和她的同事在去年發表的一篇論文中提到了包括 GapJumpers 在內的多家以 AI 招聘工具為業務的公司,認為它們是采用“故意設計正義”的方法來改變 IT 界的招聘機制。
根據 Payton 的觀點,AI 招聘工具根據其在招聘過程中的參與度可分為三種類型。初級的招聘工具可能只是給 HR 提供關于招聘哪種候選人的一般性建議;中級的工具可能會向招聘人員推薦特定的應聘者;而一些高級工具可以對候選人進行主動的篩選,甚至直接做出選擇的決策。
但是,無論 AI 在招聘過程中扮演什么角色,最終都應該要人來對評估系統做出決策,并擁有隨時推翻 AI 所做決策的權力。
Payton 說:“我認為,正確的 AI 工具不應該在算法建議的末尾才提到人為介入。人類應該從設計 AI 工具到使用該工具進行招聘的整個循環過程中全程參與,一直到系統內部形成完全沒有偏見的模型為止!
Payton 補充說,AI 系統決策點的每個階段都應允許進行人工審核,以便預防每個階段可能出現的偏見。當然,人員的分工是至關重要的,比如審核系統的人員與最初設計系統的人員應該是不同的人,這樣也能大大降低系統出現偏見或歧視的概率。
AI 工具并不是快速解決方案
AI 招聘工具面臨的另一個挑戰是,有些客戶希望使用這些工具能夠快速解決復雜的問題,而事實上并非如此?偛课挥趥惗氐恼衅杠浖鮿摴 Headstart 的產品營銷主管 James Doman-Pipe 表示,任何想要使用 AI 或其他技術避免職場歧視的企業,都需要組織領導層和其他部門在各個環節的大力支持。
Headstart 的軟件使用機器學習來評估求職者,并生成相應的“匹配分數”,以顯示應聘者滿足該工作崗位對技能、學歷和工作經驗要求的程度。Doman-Pipe 說:“通過產生匹配分數來對應聘者進行排序,招聘人員更有可能拋開種族、性別、家庭環境等因素,對應聘者擇優錄取,從而減少主觀潛在的偏見!
該公司聲稱,在將基于 AI 的方法與傳統招聘方法進行比較的測試中,使用其軟件的客戶看到了新員工在多樣性方面的顯著改善。
盡管如此,以人工智能為動力的招聘工具在獲得廣泛信任之前,所面臨的最大障礙之一是缺乏公信力,即這些 AI 工具需要一些公開的數據來表明:不同的工具是如何幫助招聘過程變得更加公平的。
賓夕法尼亞州立大學教授 Yarger 表示:“我從與一些軟件公司的訪談中知道,他們確實為了更好的多元化進行了改變,他們重新校準了他們的招聘系統。但是,提高 AI 招聘中的算法公平性是否真的帶來了效果,這點尚不清楚!
她解釋說,由于圍繞公平就業和職場歧視的問題會帶來一些法律責任,因此許多公司仍然不愿公開分享此類信息。因為一旦公開的數據證明了他們使用的 AI 工具曾經或仍然存在歧視某些群體的現象,那么該公司很可能會面臨法律后果。
Payton 教授認為,人工智能是否能幫助企業創建公平、公正的人才招聘機制,仍然有待觀察!叭祟惿鐣L久以來形成的偏見,包括一些職場招聘歧視的現象,并不會一夜之間發生變化。所以我們還有很多工作要做!
(來源:開源中國)