Al电信诈骗案例,防诈骗(课件)中学生安全教育主题班会课件.pptx

Al电信诈骗案例,防诈骗(课件)中学生安全教育主题班会课件.pptx

  1. 1、本文档共33页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
Al电信诈骗案例防诈骗班级:时间:2023年4月11日近日,“某科技公司老板遭遇AI换脸诈骗”一事引发网友热议。4月20日中午,郭先生的好友突然通过视频联系他,称自己的朋友在外地竞标,需要430万保证金,且需要公对公账户过账,想要借郭先生公司的账户走账。基于对好友的信任,加上已经视频聊天“核实”了身份,郭先生没有核实钱款是否到账,就分两笔把430万转到了好友朋友的银行卡上。事后,郭先生拨打好友电话才知道被骗,原来骗子通过智能AI换脸和拟声技术,佯装好友对他实施了诈骗。“从头到尾都没有和我提借钱的事情,就说会先把钱给我打过来,再让我给他朋友账户转过去,而且当时是给我打了视频的,我在视频中也确认了面孔和声音,所以才放松了戒备”,郭先生说。01魔幻一幕令人吃惊,但这并非AI换脸第一次作恶了。2022年2月,有位陈先生到浙江温州市公安局瓯海分局仙岩派出所报案称,自己被“好友”诈骗了近5万元。经警方核实,诈骗分子利用陈先生好友“阿诚”在社交平台发布的视频,截取其面部视频画面后再利用“AI换脸”技术合成,制造陈先生与“好友”视频聊天的假象骗取其信任,从而实施诈骗。2021年拱宸桥派出所接到报警,受害人小陈称他在与女网友视频聊天后被对方敲诈勒索。经警方调查,对方利用AI换脸技术,将小陈视频中的面部合成到不雅视频中,借此对其实施勒索。2020年,上海某公司高管因对方使用AI换脸与人工生成的语音技术制作公司领导的面孔,并要该高管转账,致使该高管被诈骗150万元。02AI换脸除了被用于诈骗,还经常出现在直播带货中。近日,有网友点开直播间,发现正在卖货的竟是当红女星。然而再定睛一看,这些带货“明星”很快露出了马脚——身穿中式服装,正在卖力带货的“明星”们,其实只是使用了AI实时换脸技术的普通主播。利用人工智能(AI)手段为视频中的人物“换脸”,这项技术已经发展到可以实时动态修改直播画面。从网上搜索相关AI换脸直播教程发现,这些教程通过视频、文章等形式传播,并提供换脸直播工具的下载渠道。有的需要付费,有的通过点赞、关注、评论就能获取。教程发布者声称实时变脸软件可以帮助用户轻松变脸,打造特效直播间,极大地助力引流卖货。同时他们表示有很多模型可供选择,这些模型用中外明星艺人、影视角色或政商名人的名字命名。在一个展示换脸直播效果的视频中,使用者把某明星的脸部模型载入相关软件后,摄像头前的人在直播画面中就有了与该明星相似的五官,但脸型和发型还保持原样。使用者歪头或变换表情时,五官动效切换得自然顺滑,只有手掌从脸前划过时,出现了比较明显的破绽。北京某律师事务所高级合伙人岳屾山律师表示,换脸直播用于公开传播可能涉嫌侵犯相关明星艺人的肖像权。如果涉及直播带货等商业行为,会成为加重情节。在知名艺人工作室从事宣传工作的袁女士表示,担心相关技术被用于推销假冒伪劣产品,损害消费者权益,也影响艺人的形象。岳律师认为,这个行为涉嫌欺诈或是虚假宣传,让公众误以为就是明星在带货。如果货品本身质量不好,或者主播在带货过程中说的话或一些行为导致公众对被换脸的明星产生负面评价,明星可以主张名誉权的侵权责任。近期,已经有平台和企业发布了“关于人工智能生成内容的平台规范暨行业倡议”,明确禁止利用生成式人工智能技术创作、发布侵权内容,包括但不限于肖像权、知识产权等,一经发现,平台将严格处罚;同时还提出“发布者应对人工智能生成内容进行显著标识,帮助其他用户区分虚拟与现实”“发布者需对人工智能生成内容产生的相应后果负责”等要求。03技术滥用风险在加剧为了规范人工智能发展,尤其是规避AI换脸带来的系列问题,去年12月,《互联网信息服务深度合成管理规定》正式发布,对数据和技术管理规范进行了明确。比如,关于授权同意的原则提到,深度合成服务提供者和技术支持者提供人脸、人声等生物识别信息编辑功能的,“应当提示深度合成服务使用者依法告知被编辑的个人,并取得其单独同意”。简单来说,这些技术服务公司,不能随便使用普通人的人脸来换脸,必须经过本人同意,换脸不是想换就能随便换,也不是骗子给钱就能随便换。如果就此前案例深挖下去,不排除能揪出一条非法利用人工智能技术的黑产业链。对大众来说,在人工智能时代,我们得更加警惕,不要随意泄露个人信息,需要转账时应更加谨慎地核实。而对行业而言,必须尽快立规,明确信息保护红线,加强对技术服务商行为的规范引导,等等。04AI诈骗常用手法第一种:声音合成骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。第一种:声音合成某公司财务小王接到领导电话,要求立刻给供应商转款2万元,并将转账信息以邮件形式发送,转款理由是避免缴纳滞纳金。由于老板的口音十分逼真,小王信以为真,在1小时内转款完成,后发现被骗。第二种:AI换脸人脸效果更易取得对方信任,骗子用A

文档评论(0)

165****6771 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

版权声明书
用户编号:5230043014000104

1亿VIP精品文档

相关文档