作者:AI 趋势工作人员
虽然人工智能在招聘中现在广泛用于撰写职位描述、筛选候选人和自动化面试,但如果不仔细实施,它会带来广泛歧视的风险。

这是美国平等机会委员会专员基思·桑德林 (Keith Sonderling) 在 人工智能世界政府 上周,该活动在弗吉尼亚州亚历山大举行了现场和虚拟活动。 Sonderling 负责执行联邦法律,禁止因种族、肤色、宗教、性别、国籍、年龄或残疾而歧视求职者。
他说:“两年前,人工智能将成为人力资源部门主流的想法更接近科幻小说,但大流行加速了雇主使用人工智能的速度。” “虚拟招聘现在将继续存在。”
对于人力资源专业人士来说,这是一个忙碌的时期。桑德林说:“伟大的辞职导致了伟大的重新招聘,人工智能将在其中发挥我们以前从未见过的作用。”
人工智能在招聘领域已经应用了多年——“这不是一朝一夕的事”——用于执行包括与申请者聊天、预测候选人是否会接受这份工作、预测他们将成为什么类型的员工以及制定技能提升和再培训机会等任务。 “简而言之,人工智能现在正在做出曾经由人力资源人员做出的所有决定”,他并没有将其描述为好或坏。
“经过精心设计和正确使用,人工智能有潜力使工作场所更加公平,”桑德林说。 “但如果实施不慎,人工智能可能会产生人力资源专业人士从未见过的规模歧视。”
用于招聘的人工智能模型的训练数据集需要体现多样性
这是因为人工智能模型依赖于训练数据。如果公司现有的劳动力被用作培训的基础,“它将复制现状。如果主要是一种性别或一种种族,它将复制这一点,”他说。相反,人工智能可以帮助减轻因种族、民族背景或残疾状况而产生的招聘偏见的风险。 “我希望看到人工智能改善工作场所歧视,”他说。
亚马逊于 2014 年开始构建招聘应用程序,随着时间的推移,它发现它的推荐中存在歧视女性的情况,因为人工智能模型是根据该公司过去 10 年的招聘记录数据集进行训练的,其中主要是男性。亚马逊开发人员试图纠正这一问题,但最终于 2017 年废弃了该系统。
据 Facebook 的账户称,Facebook 最近同意支付 1425 万美元,以解决美国政府对这家社交媒体公司歧视美国工人并违反联邦招聘规定的民事索赔。 路透社。该案件的焦点是 Facebook 使用其所谓的 PERM 计划进行劳工认证。政府发现 Facebook 拒绝雇用美国工人从事根据 PERM 计划为临时签证持有者保留的工作。
“将人员排除在招聘池之外是一种违规行为,”桑德林说。他说,如果人工智能程序“剥夺了该阶层的工作机会,使他们无法行使其权利,或者降低了受保护阶层的级别,那么这都在我们的范围内”。
二战后变得更加普遍的就业评估为人力资源经理提供了很高的价值,在人工智能的帮助下,他们有可能最大限度地减少招聘中的偏见。桑德林说:“与此同时,他们很容易受到歧视,因此雇主需要小心,不能袖手旁观。” “不准确的数据会放大决策中的偏见。雇主必须对歧视性结果保持警惕。”
他建议研究供应商的解决方案,这些供应商根据种族、性别和其他因素审查数据是否存在偏见风险。
一个例子来自 租用Vue 据来自犹他州南乔丹的公司的一份报告称,该公司根据美国平等机会委员会的统一准则建立了一个招聘平台,专门用于减少不公平的招聘行为 全部工作。
其网站上关于人工智能道德原则的帖子部分指出,“因为 HireVue 在我们的产品中使用人工智能技术,所以我们积极努力防止针对任何团体或个人的偏见的引入或传播。我们将继续仔细审查我们在工作中使用的数据集,并确保它们尽可能准确和多样化。我们还将继续提高我们监控、检测和减轻偏见的能力。我们努力建立来自不同背景、具有不同知识、经验和观点的团队,以最好地代表我们系统所服务的人员。”
此外,“我们的数据科学家和 IO 心理学家构建 HireVue 评估算法的方式是,在不显着影响评估预测准确性的情况下,将导致不利影响的数据排除在算法考虑之外。其结果是高度有效、消除偏见的评估,有助于增强人类决策,同时积极促进多样性和平等机会,无论性别、种族、年龄或残疾状况如何。”

用于训练人工智能模型的数据集的偏差问题不仅限于招聘。生命科学行业人工智能分析公司 AiCure 的首席执行官 Ed Ikeguchi 博士在最近的一篇报道中表示 医疗保健IT新闻“人工智能的强度取决于它所输入的数据,而最近,数据骨干的可信度越来越受到质疑。如今的人工智能开发人员无法访问大型、多样化的数据集来训练和验证新工具。”
他补充道,“他们经常需要利用开源数据集,但其中许多数据集是由计算机程序员志愿者进行培训的,而这些志愿者主要是白人。由于算法通常是在多样性有限的单一来源数据样本上进行训练的,因此当将其应用于现实世界中不同种族、性别、年龄等更广泛的人群时,在研究中显得高度准确的技术可能被证明是不可靠的。”
此外,“所有算法都需要有治理和同行评审的元素,因为即使是最可靠、最经过测试的算法也必然会出现意想不到的结果。算法永远不会停止学习—它必须不断开发并提供更多数据来改进。”
并且,“作为一个行业,我们需要对人工智能的结论更加怀疑,并鼓励行业的透明度。公司应该随时回答基本问题,例如‘算法是如何训练的?它是在什么基础上得出这个结论的?’”

