AI算法招聘容易让求职者哑巴吃黄连?
AI算法招聘容易让求职者哑巴吃黄连?招聘决策还充满了人为偏见,导致一些组织将至少部分员工搜索工作交给外部技术公司,后者使用机器学习算法筛选申请人。这种思维认为,如果人类很难找到最适
招聘决策还充满了人为偏见,导致一些组织将至少部分员工搜索工作交给外部技术公司,后者使用机器学习算法筛选申请人。这种思维认为,如果人类很难找到最适合自己公司的员工,那么一台机器可能会做得更好,更有效。
但是,康奈尔大学计算机与信息科学学者团队的最新研究向有关这些算法以及开发和使用它们的技术公司提出了疑问:自动筛选过程的公正性如何?算法是如何构建的?谁设计的?按什么数据支撑的?他们发现,在这个新兴领域中,公司倾向于青睐模糊不清而不是公开透明。在算法领域上缺乏共识,缺乏“偏见”和“公平”的正式定义,使得科技公司能够根据自己的条件定义算法偏见。
“我认为算法决策工具的创建者越来越认识到,他们需要特别注意它们的算法工具是怎样影响人们的”计算机科学的博士生,Manish Raghavan说。 “我们研究中遇到许多技术供应商都承认这种了(影响),他们正在采取措施解决偏见和歧视。但是,在如何正确执行方面明显缺乏共识或指导。”
为了了解这些工具,研究人员搜寻了可用的公共信息,以及公司采取了哪些措施来评估和缓解算法偏差。受知识产权法保护,科技公司不必披露任何有关其算法模型的职前甄选信息,但也有些公司选择了提供信息。研究人员研究了19个专门从事算法的职前筛选的供应商,对公司网站,网络研讨会和任何可用的文档进行了梳理,以深入了解供应商的要求和做法。他们发现,很少有供应商提供有关如何验证评估或披露有关如何减轻算法偏差的具体信息。
Raghavan说:“许多供应商都没有提到消除偏见,这尤其令人担忧,因为他们根本没有考虑偏见。”即使他们使用“偏见”和“公平”这样的术语,但这些术语也可能是模糊的。供应商可以声称其评估算法是“公平的”,而无需透露公司如何定义公平性。
那难道算法不适合筛选申请人吗?并不是的,尽管算法存在许多缺陷,但确实有潜力为更公平的社会做出贡献,我们需要做进一步的工作以确保我们能够理解和减轻它们带来的偏见。毕竟,从我们多年经验来说,求职者面试本身就会遭受各种各样的歧视。该团队希望这份研究能让算法公司对职前评估中道德行为有着更清晰的认知。
-
大幅面打印市场崛起,制造业公司都在关注什么?2019-11-22
-
大幅面打印市场崛起,为制造业公司解决成本需求2019-11-22
-
自动驾驶初创公司的标签,贴好了吗?2019-11-22
-
显示器黄埔军校——台湾华映公司破产2019-11-22
-
巨头们参与的自动驾驶芯片竞逐赛 初创公司可有机会?2019-11-21
-
首席出行要闻丨苹果“泰坦计划”获新专利,神龙公司人事调整2019-11-20
-
巨头们参与的自动驾驶芯片竞逐赛,初创公司可有机会?2019-11-20
-
AI公司们的“造梦”之旅2019-11-20
-
剖析:A股61家医疗器械上市公司2019年Q3“成绩单”2019-11-19
-
Ai芯天下丨公司丨腾讯投资SenSat, 为自动驾驶构建底层模型2019-11-19
-
蔚来与自动驾驶技术公司Mobileye达成战略合作2019-11-09
-
首创算法芯片化,虹膜识别离飞入寻常百姓家还有多远?2019-11-07
-
DCEP和Libra直接竞争?上市公司区块链业务有哪些?这场研讨会上有答案2019-11-06
-
谷歌母公司21亿美元收购Fitbit 进军万亿美元医疗保健市场2019-11-05
-
大陆公司开发新型固态3D闪光激光雷达,可补充目前的环境传感器2019-11-04