网站大量收购闲置独家精品文档,联系QQ:2885784924

人工智能:数据与模型安全课件:机器学习基础.pptx

人工智能:数据与模型安全课件:机器学习基础.pptx

此“教育”领域文档为创作者个人分享资料,不作为权威性指导和指引,仅供参考
  1. 1、本文档共68页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

人工智能:数据与模型安全

什么是安全可信的人工智能让人工智能安全、更值得信赖!让算法和模型更安全!让算法和模型值得人类的信任!让算法和模型更安全、鲁棒、可解释、公平、保护隐私等;本课程的目的:了解当前AI模型的缺陷与风险,掌握先进的对抗攻防技术,保护并发展我国的安全可信人工智能!

为什么学习安全可信人工智能?各国政府相继发布政策,发展安全可信人工智能美国国防部DARPA和情报总局办公室下属IARPA组织先后发起防御对抗和后门攻击的鲁棒人工智能专项法国经济和财政部与全球行业巨头签署了《工业人工智能宣言》,指出发展“鲁棒、可解释和可证明的人工智能”。美国发布新版《国家人工智能研究与发展战略规划》,强调要创建鲁棒安全AI系统。2019201920192021澳大利亚发布《人工智能行动计划》,发展鲁棒、可信和负责任的人工智能。2022德国发布新版《德国联邦政府人工智能战略》,明确大力发展“安全、可信人工智能”。2020英国发布《国防人工智能战略》提出安全、鲁棒、高效的在国防领域逐步使用AI技术。

为什么学习安全可信人工智能《人工智能在混合战争中的鲁棒性》:2021年,美英德等8个国家的9个国防单位联合发表论文,强调鲁棒人工智能对未来混合作战的重要性

为什么学习安全可信人工智能在我国,发展安全、可靠、可控的AI已经上升为国家战略2017年10月,国家发布《新一代人工智能发展规划》,2018年,启动科技创新2030—新一代人工智能重大项目。

为什么学习安全可信人工智能党和国家高度关注AI领域的安全可靠可控发展习总书记在十九届中央政治局集体学习时指出:要加强人工智能发展的潜在风险研判和防范,确保人工智能安全、可靠、可控;要整合多学科力量,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德。习总书记在2020年G20特别峰会上的重要讲话指出:面对各国对数据安全、数字鸿沟、个人隐私、道德伦理等方面的关切,我们要秉持以人为中心、…,携手打造开放、公平、公正、非歧视的数字发展环境。…,引领全球人工智能健康发展。

为什么学习安全可信人工智能《中华人民共和国网络安全法》、《中华人民共和国数据安全法》、《中华人民共和国个人信息保护法》网信办发布《生成式人工智能服务管理办法》:

为什么学习安全可信人工智能提升科学素养:逆向思维、辩证地看待问题、强化科技伦理意识提高科研能力:“做好”比“做到”要困难很多,需要广泛研究增强忧患意识:新技术新风险,当今AI还有很多局限性培养责任意识:“技术向善”、“以人为本”,培养“知责任”、“明责任”、“负责任”的人工智能人才促进行业发展:为我国人工智能行业健康发展保驾护航

人工智能已经进入大模型时代模型:ResNet-50年份:2015参数:~2300万模型:ViT-Large年份:2021参数:~3亿模型:BERT-Base年份:2018参数:~1亿模型:GPT-1年份:2018参数:~1亿模型:GPT-2年份:2019参数:~15亿模型:GPT-3年份:2020参数:~1750亿模型:GPT-4年份:2023参数:~1.8万亿模型:Grok1.0年份:2023参数:~3140亿

语言大模型:ChatGPT?

视觉模型:StableDiffusion2StabilityAI公司在2022年11月发布的一种图像生成大模型,可以根据文本提示生成高质量的图像、对图像进行修复、生成高分辨率图像等。参数量:~10亿基础模型:LDM训练数据:LAION-5B(5850亿图文对)、LAION-Aestheticsv25+

视觉模型:DALL·E2OpenAI在2022年9月发布的一种生成扩散模型,可以根据文本提示生成高逼真的图像,可以组合概念、属性和样式。参数量:~35亿基础模型:多模态GPT-3训练数据:LAION-400M(4亿图文对,10TB网络数据)

语言模型:Meta开源LLaMAMeta在2023年2月发布的一种语言大模型,类似GPT-3,在多数语言任务上超越GPT-3。参数量:最大的约~650亿基础模型:改进的Transformer训练数据:CommonCrawl(3.3TB文本),C4(738G),Github(328G),Wikipedia(83G),Books(85G),Arxiv(92G),StackExchange(78G)等,共约1.3万亿token

语言模型:斯坦福Alpaca斯坦福在2023年3月发布的一种语言大模型,基于Meta开源大模型LLaMA-7B构建使用用OpenAItext-davinci-003的生成数据进行训练,性能媲美GPT-3.5(1750亿参数),十分高效。参数量:~70亿基础模型:LLaMA-7B训练数

文档评论(0)

ning2021 + 关注
实名认证
内容提供者

中医资格证持证人

该用户很懒,什么也没介绍

领域认证该用户于2023年05月10日上传了中医资格证

1亿VIP精品文档

相关文档