无需本地GPU即可私有化部署 DeepSeek-R1 32B.docxVIP

  • 0
  • 0
  • 约2.87千字
  • 约 9页
  • 2026-01-08 发布于四川
  • 举报

无需本地GPU即可私有化部署 DeepSeek-R1 32B.docx

无需本地GPU即可私有化部署DeepSeek-R132B

对于?DeepSeek-R1?在日常办公使用,直接在官方网站中使用是最佳选择,如果你有其他顾虑或特殊需要...必须在?本地部署DeepSeek-R1(附一键安装包),这里的小白教程十分适合你。

如果你的电脑配置较差,但是还想部署使用私有化DeepSeek-R1...那么可以考虑使用免费GPU,好久前教大家?使用免费GPU算力在线部署DeepSeek-R1开源模型,有一个致命缺点,就是免费GPU只能安装14B,安装32B会十分卡,但经过实测只有安装DeepSeek-R132B以上输出质量才能达到日常工作需要。

所以...我们要做的是在免费GPU中安装高效运行的?DeepSeek-R132B的量化版。他来了!

在免费GPU中可以做到每秒输出2~6个单词(根据问题复杂程度输出速度有浮动),这个方法缺点是需要不定时开启服务。

?

unsloth团队量化版本DeepSeek-R1

unsloth?提供的Qwen-32B-Q4_K_M版本直接就压缩到了20GB,已经能在消费级单卡跑了。

?

简单概括量化版本对电脑性能的要求

DeepSeek-R1-Distill-Qwen-32B-GGUF模型的不同量化版本说明

每个文件的后缀(如Q2_K_L、Q4_K_M等)代表了不同的量化。以下是它们的主要区别:

1、Q2_K_L、Q3_K_M、Q4_K_M、Q5_K_M、Q6_K、Q8_0

Q2、Q3、Q4、Q5、Q6、Q8表示计算比特数(例如Q4表示4-bit计算)。

K并且M可能是不同的量化策略或精度级别。

Q8_0通常是8位量化,接近FP16精度,计算需求最高但推理质量较好。

2、DeepSeek-R1-Distill-Qwen-32B-F16

F16表示16位浮点数(FP16),是未计算的模型,精度最高但占用显存最大。

在这里了解更多关于量化的概念:模型量化是什么:FP32,FP16,INT8,INT4数据类型详解

如何选择适合的版本?

低显存设备(如消费级GPU)?→选择Q4、Q5量化,如Q4_K_M或Q5_K_M,兼顾性能和精度。

极低显存设备(如CPU运行)?→选择Q2或Q3量化,如Q2_K_L或Q3_K_M,减少内存占用。

高性能GPU服务器→选择Q6或Q8量化,如Q6_K或Q8_0,获得更好的推理质量。

最有效→选择F16版本,但需要大量显着存储(约60GB以上)。

免费GPU推荐安装版本

Q2_K_L

?

开始安装DeepSeek-R132B

从如何获取免费GPU直至安装好?Ollama?过程略过,或阅读:使用免费GPU算力在线部署DeepSeek-R1开源模型,因为和之前教程唯一不同就是安装命令略有变化。

直接进入到如何在Ollama中安装特定量化版本的流程。感谢Ollama已经把整个安装过程简化到极致,只需学会一个安装命令即可。

?

1.安装huggingface量化版本模型的基础命令格式

记住以下安装命令格式

ollamarunhf.co/{username}:{reponame}

?

2.选择量化版本

所有量化版本列表:https://huggingface.co/unsloth/DeepSeek-R1-Distill-Qwen-32B-GGUF/tree/main

此次安装使用:Q5_K_M(只为演示,再次提醒请安装免费GPU推荐的版本,Q5实际安装需要23G硬盘空间)

?

3.拼接安装命令

?

{username}=unsloth/DeepSeek-R1-Distill-Qwen-32B-GGUF

{reponame}=Q5_K_M

拼接后得到完整安装命令:ollamarunhf.co/unsloth/DeepSeek-R1-Distill-Qwen-32B-GGUF:Q5_K_M

?

4.在Ollama中执行安装

执行安装命令

你可能会遇到网络故障(祝你好运),多重复几次安装命令...

还是不行?执行以下命令试试(切换为国内镜像地址):ollamarun/unsloth/DeepSeek-R1-Distill-Qwen-32B-GGUF:Q5_K_M

为什么不直接使用镜像地址下载,而是先用官方地址后用镜像?

因为综合安装速度较快!

当然你可能不需要这个量化版本,这里还有最近流行的未经审查版本:ollamarunhuihui_ai/deepseek-r1-abliterated:14b

?

5.让外放可以访问Ollama

在终端输入命令确认Ollama端口

ollamaserve

11414或者6399

?

安装ngrok

curl-sSL/ngrok.as

文档评论(0)

1亿VIP精品文档

相关文档