- 1、本文档共1页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
以下是LMStudio正确配置CPU和GPU的方法:
配置CPU
确认CPU支持AVX2指令集:LMStudio要求CPU支持AVX2指令集,否则可能无法正常
运行或性能受限。可在CPU官网查询型号是否支持AVX2,或使用CPU-Z等软件检测2。
替换llama.dll文件:若CPU不支持AVX2,可尝试从Ollama安装目录中替换C:\Users\
用户名
\AppData\Local\LM-Studio\app-0.2.24\resources\app.webpack\main\build\Rel
ease\llama_cpu下的llama.dll文件,以提升性能2
配置GPU
下载并安装支持ROCm的LMStudio版本:访问http://lmstudio.ai/rocm下载并安装,
0.2.24版本之后需下载普通版本后再按说明安装ROCm版本。
编辑backend-manifest.json文件:在C:\Users\用户名
\AppData\Local\LM-Studio\app-0.2.24\resources\app.webpack\main\build\Rel
ease\llama_rocm中编辑backend-manifest.json,添加显卡型号(如gfx1103)2。
替换llama.dll和rocblas.dll文件:从Ollama安装目录或相关链接下载适用于AMD显卡
的llama.dll和rocblas.dll文件,替换到相应文件夹中2。
测试ROCm是否可用:重启LMStudio,切换为ROCm并加载模型,若能成功加载则配置
成功
文档评论(0)