网站大量收购独家精品文档,联系QQ:2885784924

人工智能的“偏见”能否消除.pdfVIP

人工智能的“偏见”能否消除.pdf

此“司法”领域文档为创作者个人分享资料,不作为权威性指导和指引,仅供参考
  1. 1、本文档共2页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

新科技

OQ

能否消除

人工智能的偏见”能

文/张佳欣

据英国《新科学家》网站近日报道,在提的表达倾向:当使用“印度男性”提示词生成图

供购房和租房建议时,AI对黑人用户倾向于像时,绝大多数图片中的男性都是戴着头巾。

推荐低收人社区,这一行为被指存在种族偏虽然很多印度男性确实戴着头巾(主要是锡克

见,映射出美国历史上长期存在的住房歧视教徒),但根据2011年人口普查,即使是在印

问题。度首都新德里,锡克教徒的人口比例也只占约

随着人工智能(AI)技术不断发展,其潜3.4%。

在问题也日益凸显。ChatGPT等AI大模型频

单凭技术手段难以奏效

频暴露出的偏见和歧视倾向,正是这一问题的

缩影。ChatGPT等生成式AI具有惊人的能力,

可在数秒内模拟人类推理,但这也增加了出错

AI也有性别歧视

的可能。AI巨头们深知其中存在问题,担心

联合国妇女署官网5月22日报告指出,美国AI模型会陷人偏见、歧视等行为模式中,或在

加州伯克利大学哈斯商学院一项研究,分析了不全球化用户群体中过度呈现西方社会的文化和

同行业的133个AI系统。结果显示,约44%的系认知。

统表现出性别刻板印象,25%同时表现出性别和字母表公司(Alphabet,谷歌母公司)首

种族刻板印象。席执行官桑达尔·皮查伊表示,为了应对这一挑

例如,土耳其艺术家贝扎·多古斯在创战,他们会要求在训练AI模型时尽可能拓展数

作时,曾尝试让AI写一个关于医生和护士的据来源。例如,在展示医生或律师的图像时,力

故事。而AI总是自动将医生设定为男性,求反映种族多样性。但这一策略有时也会走向

将护士设定为女性,即使多次尝试纠正也是极端。

如此。AI模型领先平台“抱抱脸”(Hugging

美国科技博客TechCrunch利用Meta推出Face)研究科学家萨莎·卢西奥尼认为:“单

的AI聊天机器人进行测试,也发现了一种刻板凭技术手段解决偏见问题,恐难奏效。”她强

54中国科技财富12024年第6期

新科技

0

684

Q

00

0

调,生成式AI的输出是否符合用户期望,往确性。

往取决于主观判断。美国阿莱姆比克技术公司然而,对于如何根本性地解决AI偏见问

产品主管杰登·齐格勒也指出,ChatGPT等题,业界和专家们的共识是:这是一个复杂而艰

大型模型难以准确区

文档评论(0)

新能源知识科普(本账号发布文档均来源于互联网公开资料,仅用于技术分享交流,相关版权为原作者所有。如果侵犯了您的相关权利,请提出指正,我们将立即删除相关资料)。

1亿VIP精品文档

相关文档