- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
DeepSeek本地部署与应用构建
智灵动力 陈军
1、DeepSeek简单介绍与使用
目录 2、DeepSeek本地部署3、本地知识库搭建
4、实际应用场景
DeepSeek简单介绍与使用
模型简介
推理能力强
DeepSeekR1推理模型具备强大的推理能力,能够准确理解并回应复杂的对话场景,支持多轮对话,确保用户体验的连贯性和高效性。
本地化部署隐私保护
核心亮点在支持完全本地化部署,有效保护用户数据隐私,避免敏感信息泄露,同时提升推理速度与安全性。
多种量化蒸馏模型
提供多种量化蒸馏模型选择,包括8B、32B、70B等,以满足不同应用场景对精度与性能的多样化需求。
开源生态
开源社区支持,并兼容多种开源框架,方便我们二次开发和微调。同时也支持跨平台适配。
应用场景
科研数据分析
DeepSeekR1在科研领域展现出了巨大潜力,通过高效处理和分析复杂数据,为科研人员提供深入见解,加速科研进展。
自动化工作流
集成DeepSeekR1于自动化工作流,显著提升流程智能化水平,自动处理数据,实现高效、准确的决策支持。
外挂大脑
日常答疑解惑,信息收集总结类,料汇总,策划分析写周报,写作直播的话术
DeepSeek使用途径
官网/APP硅基流动秘塔cursorGrok
本地部署/API
DeepSeek本地部署
本地部署的必要性
数据隐私保护
DeepSeekR1推理模型本地部署可有效避免敏感数据在推理过程中上传至云端,确保数据隐私安全。
自定义模型数据弱审查
根据特定需求,用户可灵活选择不同量化精度的
模型进行本地部署,实现性能与资源利用的最佳平衡。
可以弱化审核条件,更加全面的利用大模型能力
离线使用
即使在网络断开的情况下,用户仍可依赖本地部署的DeepSeekR1推理
模型进行智能分析,保障工作连续性。
性能优化
本地部署DeepSeekR1推理模型能够充分挖掘并利用本地硬件资源,如CPU、GPU等,实现推理性能的优化提升。
软件要求
操作系统
安装包
防火墙设置
DeepSeek支持Windows及Linux、mac操作系统,确保了其在不同平台上的兼容性,为用户提供灵活的选择。
部署DeepSeek需下载其本地部署包,该包已包含所有必要的依赖项和配置文件,确保了安装过程的简便性。
为确保DeepSeek在断网环境下能够正常运行,需进行防火墙设置,禁止不必要的网络通信,保障数据安全。
模型选择与硬件要求
量化模型选择
DeepSeek支持8B、32B、70B等多种量化模型,官方满配版本是671B。用户可根据实际需求及硬件配置选择合适的模型。
量化模型作用
量化模型的选择直接影响模型的推理速度与精度,用户需根据具体任务权衡利弊,做出最佳选择。
CPU-1.5BQ8或者8BQ4GPU4G-8BQ4推理
GPU8G-16G-32BQ4推理显存越大,速度越快,达到官方宣传的官方版本的90%能力,效果也不错。
GPU24G-32GQ8或者70BQ2
GPU40G-70BQ4 这个效果就非常好了
Ollama方式安装
DeepSeek的安装直接用ollama就能安装,ollama官方地址:
ollama+chatboxaiollama+anythinglmollama+pageassist
Ollama方式安装
Ollama方式安装
安装软件
Ollama方式安装
Chatbox对话框页面
Chatbox官网:https://chatboxai.app/en
Chatbox对话框页面
Chatbox对话框页面
Chatbox对话框页面
环境变量
Chatbox对话框页面
环境变量
Chatbox对话框页面
GPT4All方式安装
网址:https://gpt4all.io第一步:安装gpt4all
选择适合的系统版本:Windows/macOS/Linux
GPT4All方式安装
第二步:下载DeepSeek模型
GPT4All方式安装
第三步:开始对话
DeepSeekR1671Blinux完整版本地部署
部署此类大模型的主要瓶颈是内存+显存容量,建议配置如下:
DeepSeek-R1-UD-IQ1_M:内存+显存≥200GB
DeepSeek-R1-Q4_K_M:内存+显存≥500GB
使用ollama部署此模型。ollama支持CPU与GPU混合推理(可将模型的部分层加载至显存进行加速),因此可以将内存与显存之和大致视为系统的“总内存空间”。除了模型参数占用的内存+显存空间(158GB和404GB)以外,实际运行时还需额外预留一些内存(显存)空间用于上下文缓存。预
动点策划通过提供各行各业经典策划案例,策划思路,行业最新动态,旨在做好你的助手,为你正在谋划的事情提供框架思路或创作灵感。
文档评论(0)