- 1、本文档共9页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
Deepseek本地部署
LMstudio+Deepseek-R1
1、我们首先下载获取LMstudio客户端
在本文件夹里已经下载好了
2、下载到本地后打开安装程序,这里我们选择“仅为我安装”
3、在目标文件夹我们选择空间充足的盘,这样后面的其他模型就都可以放一起,方便管理。注意:
这里选择的文件夹必须只能是英文!
4、点击下一步安装直到安装完成,然后我们就会在桌面上看到LMstudio的ICO图标
到此为止,我们的客户端就下载并安装完毕了
设置LMstudio
我们打开客户端后,需要点击右下角的设置,里面把语言选择成为“简体中文”
下载模型
接下来我们就需要下载Deepseek-R1模型,无论我们是第一种方法还是第二种,这个步骤都是必须
的,基本上都会在“魔塔社区”或者“模型镜像”2个网站下载,由于模型很多,小编为了大家能够最快
速的本地部署,在这里直接给大家提供了最新的Deepseek-R1GGUF下载文件,并且提供了低显存
版本和高显存版本,大家可以根据自己的显卡来选择。
在本文件夹里已经下载好了!
DeepSeek-R1-Distill-Qwen-7B-Q2_K.gguf(适合3G及以上显存)
DeepSeek-R1-Distill-Qwen-7B-Q8_0.gguf(适合8G及以上显存)
模型存放及部署设置
1、当我们下载好模型文件后,需要注意,不能随便存放,因为需要让安装好的LMStudio来加载,
而它对文件加载是有规定的,在客户端里选择”模型目录“,然后我们选择”更改“
2、这里我们把文件举例放在D盘,新建一个文件夹,取名:models000,注意,这里的文件夹也不
能有任何符号及中文
3、我们在models000下再建立一个文件夹001,在001里继续建立一个文件夹002,这样002就
处于三级目录下了,我们把刚才下载的R1模型文件,复制在这个002文件夹内就可以了
4、然后我们回到刚才LMstudio的模型目录里,就直接可以看到刚才已经复制的模型了
5、点击聊天界面,再点击上面的模型选择按钮
6、选择刚才的模型后,点击加载等待完成即可,注意:这里可以选择加一个“快速注意力”
7、到此,Deepseek的本地化部署和使用就完成了,直接就可以使用Deepseek-R1版本了,后面的
更多版本,脚本之家小编会保持更新,如果感觉对你有用,就收藏本页面吧。
到此,一种最简单的deepseek本地部署方法就完成了,感谢大家的阅读,小编会在后续中陆续增加
更多部署方法,更多deepseek模型也会后续更新最新版本。
Deepseek本地部署
LMstudio+Deepseek-R1
1、我们首先下载获取LMstudio客户端
在本文件夹里已经下载好了
2、下载到本地后打开安装程序,这里我们选择“仅为我安装”
3、在目标文件夹我们选择空间充足的盘,这样后面的其他模型就都可以放一起,方便管理。注意:
这里选择的文件夹必须只能是英文!
4、点击下一步安装直到安装完成,然后我们就会在桌面上看到LMstudio的ICO图标
到此为止,我们的客户端就下载并安装完毕了
设置LMstudio
我们打开客户端后,需要点击右下角的设置,里面把语言选择成为“简体中文”
下载模型
接下来我们就需要下载Deepseek-R1模型,无论我们是第一种方法还是第二种,这个步骤都是必须
的,基本上都会在“魔塔社区”或者“模型镜像”2个网站下载,由于模型很多,小编为了大家能够最快
速的本地部署,在这里直接给大家提供了最新的Deepseek-R1GGUF下载文件,并且提供了低显存
版本和高显存版本,大家可以根据自己的显卡来选择。
在本文件夹里已经下载好了!
文档评论(0)