DeepSeek模型本地部署与应用构建 .docx

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

DeepSeek本地部署与应用构建

智灵动力 陈军

1、DeepSeek简单介绍与使用

目录 2、DeepSeek本地部署3、本地知识库搭建

4、实际应用场景

DeepSeek简单介绍与使用

模型简介

推理能力强

DeepSeekR1推理模型具备强大的推理能力,能够准确理解并回应复杂的对话场景,支持多轮对话,确保用户体验的连贯性和高效性。

本地化部署隐私保护

核心亮点在支持完全本地化部署,有效保护用户数据隐私,避免敏感信息泄露,同时提升推理速度与安全性。

多种量化蒸馏模型

提供多种量化蒸馏模型选择,包括8B、32B、70B等,以满足不同应用场景对精度与性能的多样化需求。

开源生态

开源社区支持,并兼容多种开源框架,方便我们二次开发和微调。同时也支持跨平台适配。

应用场景

科研数据分析

DeepSeekR1在科研领域展现出了巨大潜力,通过高效处理和分析复杂数据,为科研人员提供深入见解,加速科研进展。

自动化工作流

集成DeepSeekR1于自动化工作流,显著提升流程智能化水平,自动处理数据,实现高效、准确的决策支持。

外挂大脑

日常答疑解惑,信息收集总结类,料汇总,策划分析写周报,写作直播的话术

DeepSeek使用途径

官网/APP硅基流动秘塔cursorGrok

本地部署/API

DeepSeek本地部署

本地部署的必要性

数据隐私保护

DeepSeekR1推理模型本地部署可有效避免敏感数据在推理过程中上传至云端,确保数据隐私安全。

自定义模型数据弱审查

根据特定需求,用户可灵活选择不同量化精度的

模型进行本地部署,实现性能与资源利用的最佳平衡。

可以弱化审核条件,更加全面的利用大模型能力

离线使用

即使在网络断开的情况下,用户仍可依赖本地部署的DeepSeekR1推理

模型进行智能分析,保障工作连续性。

性能优化

本地部署DeepSeekR1推理模型能够充分挖掘并利用本地硬件资源,如CPU、GPU等,实现推理性能的优化提升。

软件要求

操作系统

安装包

防火墙设置

DeepSeek支持Windows及Linux、mac操作系统,确保了其在不同平台上的兼容性,为用户提供灵活的选择。

部署DeepSeek需下载其本地部署包,该包已包含所有必要的依赖项和配置文件,确保了安装过程的简便性。

为确保DeepSeek在断网环境下能够正常运行,需进行防火墙设置,禁止不必要的网络通信,保障数据安全。

模型选择与硬件要求

量化模型选择

DeepSeek支持8B、32B、70B等多种量化模型,官方满配版本是671B。用户可根据实际需求及硬件配置选择合适的模型。

量化模型作用

量化模型的选择直接影响模型的推理速度与精度,用户需根据具体任务权衡利弊,做出最佳选择。

CPU-1.5BQ8或者8BQ4GPU4G-8BQ4推理

GPU8G-16G-32BQ4推理显存越大,速度越快,达到官方宣传的官方版本的90%能力,效果也不错。

GPU24G-32GQ8或者70BQ2

GPU40G-70BQ4 这个效果就非常好了

Ollama方式安装

DeepSeek的安装直接用ollama就能安装,ollama官方地址:

ollama+chatboxaiollama+anythinglmollama+pageassist

Ollama方式安装

Ollama方式安装

安装软件

Ollama方式安装

Chatbox对话框页面

Chatbox官网:https://chatboxai.app/en

Chatbox对话框页面

Chatbox对话框页面

Chatbox对话框页面

环境变量

Chatbox对话框页面

环境变量

Chatbox对话框页面

GPT4All方式安装

网址:https://gpt4all.io第一步:安装gpt4all

选择适合的系统版本:Windows/macOS/Linux

GPT4All方式安装

第二步:下载DeepSeek模型

GPT4All方式安装

第三步:开始对话

DeepSeekR1671Blinux完整版本地部署

部署此类大模型的主要瓶颈是内存+显存容量,建议配置如下:

DeepSeek-R1-UD-IQ1_M:内存+显存≥200GB

DeepSeek-R1-Q4_K_M:内存+显存≥500GB

使用ollama部署此模型。ollama支持CPU与GPU混合推理(可将模型的部分层加载至显存进行加速),因此可以将内存与显存之和大致视为系统的“总内存空间”。除了模型参数占用的内存+显存空间(158GB和404GB)以外,实际运行时还需额外预留一些内存(显存)空间用于上下文缓存。预

文档评论(0)

动点策划 + 关注
官方认证
服务提供商

动点策划通过提供各行各业经典策划案例,策划思路,行业最新动态,旨在做好你的助手,为你正在谋划的事情提供框架思路或创作灵感。

认证主体迈通人才资源咨询(广东)有 限公司
IP属地广东
统一社会信用代码/组织机构代码
914400007224748147

1亿VIP精品文档

相关文档