这个承诺很简单:人工智能将通过消除人为偏见并找到最合格的候选人来彻底改变招聘。公司纷纷采用人工智能驱动的招聘工具估计 99% 的财富 500 强公司现在在招聘过程中使用某种形式的自动化。但这些系统并没有创造一个精英乌托邦,而是根据种族、性别、年龄和残疾状况系统地筛选合格的申请人,而法律上的强烈反对才刚刚开始。
以 Workday 为例,这家人力资源软件巨头面临着可能成为历史上最大的就业歧视诉讼之一。 2025 年 5 月,一名联邦法官允许进行集体诉讼,指控Workday 的人工智能筛选工具不成比例地取消 40 岁以上申请者的资格。潜在类别?据报道,已有数亿求职者被系统过滤掉。法官 Rita Lin 的裁决指出,如果集体达到“数亿人,”正如 Workday 推测的那样,“这是因为 Workday 被合理地指控为歧视广大求职者。”
这不是一个孤立的事件。华盛顿大学的研究揭示了这些系统中嵌入的偏见有多深。他们的研究发现,三种最先进的大型语言模型在恢复排名时表现出明显的种族、性别和交叉偏见。系统在 85% 的情况下更喜欢与白人相关的名字,而只有 9% 的情况下系统更喜欢与黑人相关的名字。与男性相关的名字获得认可的比例为 52%,而与女性相关的名字获得认可的比例为 11%。也许最能说明问题的是,系统从来不喜欢被认为是黑人男性的名字而不是白人男性的名字。
问题始于这些人工智能工具的训练方式。分析表明,算法偏差代表了“人工智能的致命弱点”,揭示了机器如何与它们背后的人类一样公正。许多选择算法都是根据历史招聘数据进行训练的,这些数据反映了数十年的歧视性做法。当人工智能从数据中了解到大多数软件工程师都是年轻的白人时,它自然会认为这就是“优秀”软件工程师的样子。
特别令人担忧的是这些工具的普及程度。IBM 2023 年末的一项调查对全球 8,500 多名 IT 专业人士的调查显示,42% 的公司正在使用人工智能筛选“来改善招聘和人力资源”,另有 40% 的公司考虑整合。世界经济论坛报道到 2025 年 3 月,大约 88% 的公司使用人工智能进行初步候选人筛选。和根据 2024 年 10 月的一项调查,大约十分之七的公司允许人工智能工具在没有任何人工监督的情况下拒绝候选人。
平等就业机会委员会提起首例人工智能招聘歧视诉讼2023 年 8 月,iTutorGroup 被起诉,指控该公司的自动招聘软件自动拒绝 55 岁或以上的女性应聘者和 60 岁或以上的男性应聘者。该公司以 365,000 美元和解,并被要求召回 2020 年 4 月至 5 月期间因年龄而被拒绝的所有申请人。
但事情是这样的:证明人工智能系统中的歧视存在独特的挑战。与可能通过评论或行为模式表达的人类偏见不同,算法歧视是通过难以察觉的统计模式来运作的。费雪菲利普斯分析笔记Workday 案意义重大,因为它允许在没有故意歧视证据的情况下提出索赔——随着这一法律领域的发展,这是一个至关重要的区别。
这种偏见超越了年龄和种族。各种投诉中引用的研究表明,自动语音识别系统经常无法识别聋人的语音,导致人为地降低与工作资格无关的绩效分数。同样,主要接受标准化美式英语语音模式训练的系统会系统地误解具有地方方言或非母语口音的说话者的语音。
公司开始感受到不仅仅是诉讼和解之外的财务影响。行业报告表明,保险公司正在加强对人工智能招聘工具和人工智能相关风险管理实践的审查,这可能会影响 EPLI 的定价决策。
那么解决办法是什么呢?专家提出了几种方法。首先,公司需要对其人工智能招聘工具进行定期审核,以检查受保护类别之间的不同影响。其次,人类监督应该是强制性的,任何候选人都不应在未经人工审查的情况下被算法拒绝。第三,在用于训练招聘算法之前,需要仔细整理训练数据并测试其是否存在偏差。
讽刺之浓,足以用刀切开。旨在消除人类偏见的工具反而以前所未有的规模放大和系统化人类偏见。随着越来越多的公司急于实现招聘自动化,他们发现无偏见招聘的承诺只是一个承诺,而不是现实。现在,他们正面临着因相信自己的营销而承担的法律和财务后果。
未来几年可能会出现更多诉讼、更多监管审查,以及可能出台新的管理人工智能招聘的立法。目前,求职者面临着一个令人沮丧的现实:他们可能完全有资格胜任某个职位,但他们永远不会遇到的算法已经决定他们不适合。
