网站大量收购独家精品文档,联系QQ:2885784924

离线部署大模型:ollama+deepseek+open-webui安装使用方法及常见问题解决.pdf

离线部署大模型:ollama+deepseek+open-webui安装使用方法及常见问题解决.pdf

  1. 1、本文档共14页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

【详细】离线部署大模型:

ollama+deepseek+open-webui安装使用

方法及常见问题解决

ollama是一个开源的本地大语言模型运行框架,它提供了非常简单便捷的使用形

式,让用户可以十分方便的在本地机器上部署和运行大型语言模型,从而实现免费离

线的方式使用LLM能力,并确保私有数据的隐私和安全性。

1ollama安装

ollama支持多种操作系统,包括macOS、Windows、Linux以及通过Docker

容器运行。其安装、使用及模型下载非常简单,可以简单概括为以下几步:

•下载ollama安装程序并安装。

•启动ollama,执行命令下载和运行模型。如:ollamarundeepseek-r11.5b

•以命令行交互、API调用、第三方应用接入等形式使用其服务。

1.1硬件要求

ollama本身对硬件要求并不高,主要取决于运行模型的要求。基本建议:

你应该至少有4GB的RAM来运行1.5B模型,至少有8GB的RAM来运行

7B模型,16GB的RAM来运行13B模型,以及32GB的RAM来运行

33B模型。

假若需要本地私有化部署具有实用性的模型,应至少有独立显卡并有4G以上显存。

纯CPU模式虽然也可以运行,但生成速度很慢,仅适用于本地开发调试体验一下。

本人实测在MacStudio2023版(AppleM2Max芯片:12核、32G内存、30核显、

1TBSSD)上,运行deepseek1.5b模型响应非常快,可以较为流畅的运

行deepseek-r132b及以下的模型。

DeepSeek-r1相关版本及大小参考:

参数版本模型大小建议CPU建议内存建议显存特点

deepseek-

1.1GB4核4~8G4GB轻量级,速度快、普通

r1:1.5b

deepseek-

4.7G8核16G14GB性能较好,硬件要求适

r1:7b

deepseek-

4.9GB8核16G14GB略强于7b,精度更高

r1:8b

deepseek-高性能,擅长复杂任务

9GB12核32G26GB

r1:14b如数学推理、代码生成

deepseek-

20GB16核64G48GB专业级,适合高精度任

r1:32b

deepseek-顶级模型,

43GB32核

您可能关注的文档

文档评论(0)

优选文档 + 关注
实名认证
内容提供者

专注于发布优质文档,喜欢的可以关注一下哦~

1亿VIP精品文档

相关文档