- 1、本文档共10页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
DeepSeek应用场景中需要关注的
十个安全问题和防范措施
AI肖睿团队
(傅峥、王俊鑫、秦天、李娜、谢安明、陈钟)
2025年2月26日
Deepseek内部研讨系列
•北大青鸟人工智能研究院
•北大计算机学院
1.本次讲座为DeepSeek原理和应用系列研讨的讲座之一。随着人工智能技术的快速发展,DeepSeek作为前沿的AI平台,其安全性和可靠性成为关注焦点。本讲座探讨了DeepSeek在实际应用中面临的安全挑战,为不同类型的用户揭示使用DeepSeek的潜在风险并提出防范策略。
2.本讲座的内容分为四个主要部分:
①首先,介绍了DeepSeek安全问题具有威胁难以预测、攻防非对称的特点,以及存在数据隐私、知识产权、责任归属、伦理道德等法律问题;并从内生安全和外延安全描述了安全方案框架,帮助大家对DeepSeek的安全建立整体认知。
②其次,帮助大家理解DeepSeek模型自身的5个安全问题,包括DDoS攻击、无限推理攻击、漏洞探测与利用、投毒问题和越狱问题,还演示了漏洞探测与利用的过程,让大家形象的理解DeepSeek被黑客利用的过程。
③再次,帮助企业用户和技术爱好者说明了DeepSeek私有化部署的2个安全问题,包括DeepSeek本地化部署工具的风险、针对DeepSeek本地化部署实施网络攻击的风险。并演示了从利用部署工具的漏洞到最终获取模型服务器管理权的全过程,帮助大家能安全的使用私有化部署。
④最后,为普通用户介绍DeepSeek外延的3个安全问题,包括仿冒DeepSeek官方APP植入木马、仿冒DeepSeek官方网站和域名收集用户信息、DeepSeek辅助实施攻击。还演示了仿冒网站收集用户信息、DeepSeek辅助渗透攻击的方法。让普通用户在使用DeepSeek的时候了解常见的防范措施。
3.在技术学习的道路上,优质学习资源至关重要。推荐大家参考《人工智能通识教程(微课版)》这本系统全面的入门教材,结
合B站“思睿观通”栏目的配套视频进行学习。此外,欢迎加入社区,以及“AI肖睿团队”的视频号和微信号,与志同道合的AI爱好者交流经验、分享心得。
学习交流可以加AI肖睿团队微信号(ABZ2180)
DeepSeek模型的5个安全问题
DeepSeek外延的3个安全问题
学习交流可以加AI肖睿团队微信号(ABZ2180)
DeepSeek安全问题的特点及目前的安全方案框架
DeepSeek私有化部署的2个安全问题
目录
CONTENTS
DeepSeek安全问题的特点
及目前的安全方案框架
PART01
PEKINGUNIVERSITY
8,8
2025年2月17日,中共中央在北京召开民营
企业座谈会,DeepSeek创始人梁文锋出席了会议。这不仅是对DeepSeek的认可,也意味着国家对民营企业AI创新、AI应用的鼓励和高度重视。
学习交流可以加AI肖睿团队微信号(ABZ2180)
AI发展的独到之处就在于并非由权威主导,而是由广大民营创业者主导。另外,
世界各地的开发者和研究机构通过开源平台共享代码和研究成果,这种全球协作加速了技术的传播和创新。其发展速度具有以下显著特点:
创新与迭代速度快
lDeepSeek的版本从V2、V2.5、V3到R1等更新仅用了半年多
用户增长快
l上线18天,日活用户数达到1500万,而ChatGPT达到同样的数字,花了244天。
l上线20天内,日活跃用户突破2000万,成为全球增速最快的AI应用。
l上线7天,斩获1.1亿全球用户,登顶多个国家应用商店
安全问题特点突出
l威胁难以预测
l攻防非对称
法律问题:如数据隐私、知识产权、责任归属、伦理道德等
学习交流可以加AI肖睿团队微信号(ABZ2180)
传统技术工具与人工智能技术特性迥异。
传统技术工具即便复杂,其设计原理和运行逻辑也能被人掌握,行为可预测。
学习交流可以加AI肖睿团队微信号(ABZ2180)
安全问题特点1:威胁难以预测
现代人工智能技术主要是指大模型技术,是基于深度学习的人工神经网络模型的数据智能,犹如“黑
箱”,使用者仅知其好用,却不明原理,也无法排除错误和安全隐患。同时,大模型在推理阶段还具有系统“涌现”的可能,即极高的规模和复杂度下产生新的、不可预测的特性或行为模式。
学习交流可
文档评论(0)