人工智能招聘工具拒絕合格候選人並引發歧視訴訟

Gwenda

這個承諾很簡單:人工智能將通過消除人為偏見並找到最合格的候選人來徹底改變招聘。公司紛紛採用人工智能驅動的招聘工具估計 99% 的財富 500 強公司現在在招聘過程中使用某種形式的自動化。但這些系統並沒有創造一個精英烏托邦,而是根據種族、性別、年齡和殘疾狀況系統地篩選合格的申請人,而法律上的強烈反對才剛剛開始。

以 Workday 為例,這家人力資源軟件巨頭面臨著可能成為歷史上最大的就業歧視訴訟之一。 2025 年 5 月,一名聯邦法官允許進行集體訴訟,指控Workday 的人工智能篩選工具不成比例地取消 40 歲以上申請者的資格。潛在類別?據報導,已有數億求職者被系統過濾掉。法官 Rita Lin 的裁決指出,如果集體達到“數億人,”正如 Workday 推測的那樣,“這是因為 Workday 被合理地指控為歧視廣大求職者。 ”

這不是一個孤立的事件。華盛頓大學的研究揭示了這些系統中嵌入的偏見有多深。他們的研究發現,三種最先進的大型語言模型在恢復排名時表現出明顯的種族、性別和交叉偏見。系統在 85% 的情況下更喜歡與白人相關的名字,而只有 9% 的情況下系統更喜歡與黑人相關的名字。與男性相關的名字獲得認可的比例為 52%,而與女性相關的名字獲得認可的比例為 11%。也許最能說明問題的是,系統從來不喜歡被認為是黑人男性的名字而不是白人男性的名字。

問題始於這些人工智能工具的訓練方式。分析表明,算法偏差代表了“人工智能的致命弱點”,揭示了機器如何與它們背後的人類一樣公正。許多選擇算法都是根據歷史招聘數據進行訓練的,這些數據反映了數十年的歧視性做法。當人工智能從數據中了解到大多數軟件工程師都是年輕的白人時,它自然會認為這就是“優秀”軟件工程師的樣子。

特別令人擔憂的是這些工具的普及程度。IBM 2023 年末的一項調查對全球 8,500 多名 IT 專業人士的調查顯示,42% 的公司正在使用人工智能篩選“來改善招聘和人力資源”,另有 40% 的公司考慮整合。世界經濟論壇報導到 2025 年 3 月,大約 88% 的公司使用人工智能進行初步候選人篩選。和根據 2024 年 10 月的一項調查,大約十分之七的公司允許人工智能工具在沒有任何人工監督的情況下拒絕候選人。

平等就業機會委員會提起首例人工智能招聘歧視訴訟2023 年 8 月,iTutorGroup 被起訴,指控該公司的自動招聘軟件自動拒絕 55 歲或以上的女性應聘者和 60 歲或以上的男性應聘者。該公司以 365,000 美元和解,並被要求召回 2020 年 4 月至 5 月期間因年齡而被拒絕的所有申請人。

但事情是這樣的:證明人工智能係統中的歧視存在獨特的挑戰。與可能通過評論或行為模式表達的人類偏見不同,算法歧視是通過難以察覺的統計模式來運作的。費雪菲利普斯分析筆記Workday 案意義重大,因為它允許在沒有故意歧視證據的情況下提出索賠——隨著這一法律領域的發展,這是一個至關重要的區別。

這種偏見超越了年齡和種族。各種投訴中引用的研究表明,自動語音識別系統經常無法識別聾人的語音,導致人為地降低與工作資格無關的績效分數。同樣,主要接受標準化美式英語語音模式訓練的系統會系統地誤解具有地方方言或非母語口音的說話者的語音。

公司開始感受到不僅僅是訴訟和解之外的財務影響。行業報告表明,保險公司正在加強對人工智能招聘工具和人工智能相關風險管理實踐的審查,這可能會影響 EPLI 的定價決策。

那麼解決辦法是什麼呢?專家提出了幾種方法。首先,公司需要對其人工智能招聘工具進行定期審核,以檢查受保護類別之間的不同影響。其次,人類監督應該是強制性的,任何候選人都不應在未經人工審查的情況下被算法拒絕。第三,在用於訓練招聘算法之前,需要仔細整理訓練數據並測試其是否存在偏差。

諷刺之濃,足以用刀切開。旨在消除人類偏見的工具反而以前所未有的規模放大和系統化人類偏見。隨著越來越多的公司急於實現招聘自動化,他們發現無偏見招聘的承諾只是一個承諾,而不是現實。現在,他們正面臨著因相信自己的營銷而承擔的法律和財務後果。

未來幾年可能會出現更多訴訟、更多監管審查,以及可能出台新的管理人工智能招聘的立法。目前,求職者面臨著一個令人沮喪的現實:他們可能完全有資格勝任某個職位,但他們永遠不會遇到的算法已經決定他們不適合。