数智技术赋能传统产业,推动其数字化、智能化、网络化改造。然而,在这一转型过程中,就业市场正在被人工智能(AI)影响和改变,算法决策下的就业歧视问题成为我们不得不关注的重点。
算法决策应用及歧视风险
我们认为,数智化时代下,算法决策被应用在职场全生命周期的各个环节(包括求职者发现环节、面试筛选环节、员工管理环节、离职环节),当然,算法决策的应用在不同环节中也不可避免地存在一定的风险。
第一,求职者发现环节的算法决策。在求职者发现环节,招聘平台可通过算法推荐系统实现人岗匹配。一方面算法可自动解析求职者简历关键词,分析求职者的需求,向其定向化推送符合其意向的岗位,使求职者投递效率显著提升;另一方面,算法推荐可以快速帮助企业选择满足其特定要求的简历,缩短企业简历筛选时间。
但是,在该环节中亦存在一定的风险。例如,算法通过学习某企业的历史数据,产生了历史偏见。因此算法决策在求职者发现环节,就有可能因为历史数据导致偏见或歧视的产生,进而导致机会的不均等。另外,如果某算法系统将“频繁跳槽”设为负面标签,那么比如因公司解散、合并等而离职的人,可能因为非自身过错而被认定为频繁跳槽,进而导致被推荐率下降。
第二,面试筛选环节的算法决策。在面试筛选环节,算法决策发挥的空间将更大,有的系统通过算法决策功能可以在1分钟筛选完几百份简历,并可以通过NLP(自然语言处理)评估简历中项目经历的真实性,帮助企业减少简历造假情况。在面试环节,亦可通过算法系统实现语音识别,分析求职者的逻辑表达能力,捕捉求职者的微表情以判断其抗压能力,或将更加精准且高效地评估求职者。
然而,技术局限性依然带来了新的算法歧视风险。例如,某AI面试算法决策系统将微笑频率低标记为“不友好”,或者将瞳孔抖动次数多视为“说谎”。但是面试时谈论的具体话题或面试岗位的不同均可能导致面试时微笑的情况存在差异,另外戴隐形眼镜者可能眨眼频率更高,在一些情况下会被误判为“说谎”。
第三,就业管理环节的算法决策。在就业管理环节,算法决策被广泛应用于绩效考核、岗位调配等场景。例如,某外卖平台通过算法优化配送路线,使骑手日均单量提升30%。另外,算法决策系统还可以基于同事互评、项目完成率等数据预测员工表现,提供绩效评估的方案,或通过算法决策系统评估员工的岗位匹配度,为员工推荐符合其自身能力的岗位。
不过,通过算法进行就业管理亦可能异化为“数字控制”。《关于开展“清朗·网络平台算法典型问题治理”专项行动的通知》,就对包括“一味压缩配送时间导致事故发生率上升等问题”等的“盲目追求利益侵害新就业形态劳动者权益”的算法机制提出了相关要求。
第四,离职环节的算法决策。在员工离职环节,算法决策亦有一定的应用空间。例如,某企业使用生存分析算法模型与机器学习预测员工离职倾向及评估相应指标,分析要素可包括医疗报销频次、通勤距离变化、晋升停滞时长、内部通信软件关键词等,综合评估员工的身体健康情况、心理预期、晋升机会等。
值得注意的是,该算法决策的应用会在一定程度上限制员工的业务发展机会,进而导致员工对其工作满意度下降,从而提高被预测人员的真实离职率,该结果反馈给算法,形成歧视增强回路。
通过以上的分析,我们可以看出数智化时代下算法决策在职场全生命周期的应用及面临的算法歧视风险。那么,如何应对算法决策中可能存在的歧视风险,这是我们应该予以关注的核心。
歧视风险的应对与破局
一是技术的进一步透明公开。从技术层面来说,可通过“数据预处理→训练约束→后处理校准”的链条式干预,系统性降低算法歧视风险。例如,在数据预处理阶段,应明确移除数据中与受保护特征直接相关的字段来剔除敏感特征的数据集,该方法可一定程度上从源头减少算法歧视的产生。在算法训练阶段,可通过主模型预测目标变量,对抗模型试图从主模型的预测中推断敏感特征的对抗训练方式来调整模型,避免模型出现算法歧视。在后处理阶段,可通过阈值调整等方式校准算法模型的输出。
二是法律法规的进一步细化。在我国,关于算法的法律法规主要有《中华人民共和国个人信息保护法》《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等,但是上述法律法规并没有对算法决策中就业歧视的判定及归责进行明确。因此,应进一步明确、完善算法决策中就业歧视的法律规定。例如,除了规制直接用性别、年龄、种族等要素进行算法歧视的情况,也应将通过间接特征(如通过性格测试的结果作为通过面试的因素)或因“历史数据偏差”等情况导致的间接歧视纳入法律调整范围。同时应进一步强化责任归属,除了要求部分算法进行备案,还应要求算法开发者和使用者承担连带责任。同时,在某些高风险领域(例如招聘面试等)可以要求强制进行定期审计。
三是社会的多方协同治理。算法的治理及算法决策中的就业歧视问题,不应仅由一个部门处理,应形成跨部门监管的机制和合力。未来也可计划设立专门机构,并联合技术专家、法律学者、工会代表等对招聘平台进行动态监督。例如,对招聘平台、AI面试系统等高风险场景开展“双随机”抽查,要求企业实时接入算法决策日志以供审查。同时,应推动企业建立内部算法伦理委员会,制定透明招聘流程,并向社会公示算法规则。公示的情况可考虑在企业官网与招聘平台显著位置公示算法规则中关于简历的初筛维度及权重。同时,为求职者提供申诉渠道,如求职者有需要,应向求职者说明算法的规则。
四是其他风险应对与破局方法。为了更好地应对算法决策中的就业歧视风险,还可以在某些跨境场景中进行国际合作。例如,跨国企业的招聘系统可能覆盖多国求职者,单一国家监管可能无法约束其全球业务。因此,算法技术的跨国性很可能加剧国际劳动力市场不平等。未来可以考虑由多国共同制定算法审查伦理准则,积极开展国际合作。另外,可考虑在对个人权益有重大影响的情形加强人工的介入。《中华人民共和国个人信息保护法》规定,通过自动化决策方式作出对个人权益有重大影响的决定,个人有权拒绝个人信息处理者仅通过自动化决策的方式作出决定。因此,在涉及重大人事决策的情形中应考虑加强人工的介入,例如,算法仅提供辅助建议或采取人工复核机制;又如,可以考虑建立“双轨制面试”,在AI通过算法进行面试后,对边缘求职者(如分数相差5%以内的落选者)启动人工复审,防止算法歧视导致的误判及不公。
企业、劳动者及整个社会应正视挑战,正确面对算法决策在就业中的积极作用,以及策略性地解决其中的就业歧视风险。我们在肯定算法决策带来效率提升的同时,也应关注劳动者合法权益的保护,确定合理的算法歧视监管及治理手段。在技术创新与制度规则的动态平衡中,构建政府引导、技术赋能、法规完善、社会多方协同的良好治理生态,让算法真正推动社会的公平和发展。
(金泽刚系同济大学法学院教授;李胜男系上海德禾翰通律师事务所律师)
上一篇:
“隐形加班”对劳动者的影响及救济途径
|
下一篇: 毒品阴影下的“棋局人生” |