亚马逊 AI 在简历筛选中歧视女性.docxVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

亚马逊AI在简历筛选中歧视女性?AI犯错不是第一次了

一个不得不接受的事实是,人工智能的偏见与小毛病将伴随着它的成长。

亚马逊的AI招聘工具触动了人类敏感的神经,据路透社报道,亚马逊机器学习专家发现他们的AI招聘工具有一个明显的倾向——在筛选简历过程中,重男轻女。

这事得追溯到2014年,亚马逊那会儿便开始尝试用人工智能筛选简历,帮助公司挑选出合适的员工。对于一个大公司来说,筛选简历是一项浩大的工程,每天的面试者可能来自五湖四海,要从堆积如山的简历中挑选出面试者的优点,并确认其符合公司标准,难上加难。不仅耗费精力,还很花时间。

图源Pixabay

不用我赘述,我想面试经验丰富的人应该对一些大公司的面试周期记忆深刻。

通过系统的机器训练,让AI代替HR筛选简历,无疑能帮助公司节省大量的劳动力,并且更有效地挑选出合适的人才。万万没想到的是,亚马逊的AI却戴上了有色眼镜。

类似人类的情感倾向出现在了AI上,本身就有悖于人类训练AI的目的。我们希望人工智能是中立、结果导向的,甚至在理性的前提下,会带有一丝无情。

好在亚马逊自己也发现了这个问题,去年已将负责该项目的团队解散。

人工智能“性别歧视”的起因

在亚马逊AI招聘歧视事件的最后,大家把问题归咎于人工智能训练样本上。因为在具体的训练方法上,亚马逊针对性开发了500个特定职位的模型,对过去10年的简历中的5万个关键词进行识别,最后进行重要程度的优先级排序。

因此简单来说,AI的工作还是抓取关键词。然而在这些简历中,大部分求职者为男性,他们使用诸如“执行”这样的关键词更加频繁,而女性相关的数据太少,因此AI会误以为没有这类关键词的女性简历不那么重要。

EMPLOYEESINTECHNICALROLES

Apple

AppleFacebook GoogleMicrosoft

050100%

Note:Amazondoesnotdisclosethegenderbreakdownofitstechnicalworkforce.

Source:Latestdataavailablefromthecompanies,since2017.

ByHanHuang|REUTERSGRAPHICS图源reuters

类似的事情同样发生在了Google身上。早在2017年,Quartz报道了一篇题为《Thereasonwhymostoftheimagesthatshowupwhenyousearchfor“doctor”arewhitemen》的文章,如果你在Googleimage上搜索”doctor“,获得的结果中大部分都是白人男性。

一项来自普林斯顿大学的研究表明,这一搜索结果与潜在的社会现状有关。在普通人眼中医生总是与男性相连,而护士总是与女性相连。

“正如一些数据科学家所言,什么样的输入就有什么样的产出,没有好的数据,算法也做不出正确的决策。”

Google意识到了这一点,调整了搜索算法。目前“doctor”的搜索结果中,女性与男性的比例基本平等。

:

:

Google

现在的搜索页面经过优化,并有多种搜索可选项

人工智能发展到现在,应用到实际的时间并不长。如果把它比作婴儿,那它的成长有很大一部分依靠人类给予的养分与教育。人工智能在机器训练的过程中,所输入的数据便是养分。科学家尽力将算法调整到中立、客观,但最终影响其输出的还是数据。

即使数据中出现了一个小的偏差,人工智能的最终行为也会将这个偏差放大。人类获得的结果便是“歧视”——我们如何看待社会,人工智能也会以相同的视角去看待社会。这一情况属于普遍现象,其涉及到的不仅是技术问题,更是一个巨大的哲学问题。

今年七月份,微软同中国发展研究基金会发布了《未来基石》报告。报告涵盖了两家机构对人工智能的思考。例如微软在人工智能的开发中,将遵循六个道德基本准则,以创造“靠谱”的人工智能。

在微软的人工智能产品中,曾出现了聊天机器人小冰爆粗口的情况,同样是源于训练数据库的影响。经历该事件后,微软修改了小冰的对话原则,并加强

您可能关注的文档

文档评论(0)

人生风雪客 + 关注
实名认证
文档贡献者

如果有遇到文件不清或断篇的或者需要转换文件格式的情况请联系我,会在第一时间帮你完成完整的文档。文档如有侵权,请及时告知,本人将尽快予以删除,谢谢啦。

1亿VIP精品文档

相关文档