
很多教程都讲了DeepSeek本地部署的方法, 但是有些细节没有讲明白. 导致后面出现各种问题. 本教程将详细介绍部署细节, 一次部署, 终身受益.
硬件需求
大模型运行需要消耗很多硬件资源, 如果电脑配置比较低, 没有网络限制, 没有很强的隐私和安全需求, 不建议本地部署. 去薅羊毛吧. 能薅羊毛的地方很多. 所以部署前先想清楚自己是不是需要做本地部署.
1. CPU至少不弱于Intel 7代之后的.
2. 内存至少16G.
3. 独立显卡是必须的, 至少性能不弱于RTX 1060
, 最差也得是RTX 1050
. 1050用1.5b的模型还行, 用7b的模型就有点卡了.
4. 最好是固态硬盘, 根据模型不同, 需要的硬盘空间也不一样. 模型最小1.1GB, 最大404GB.
5. 此教程只讲Win10系统, Win11应该差不多.
部署步骤
- 下载ollama, 这个是一个模型管理软件, 通过它可以下载和运行deepseek. 下载地址, 下载完成后, 双击”OllamaSetup.exe”, Install
- 配置ollama, 这一步很多教程没有讲. 如果跳过这一步, 后面的模型会默认安装到C盘下. 如果你的C盘空间不大, 有可能装完就报红了. 建议按照这一步要求, 把模型安装路径配置到其他盘符下.
- 右键点击”此电脑 => 属性”, 打开设置窗口.
- 右边找”高级系统设置”点击, 打开”系统属性”窗口.
- 点击选项卡”高级”, 再找”环境变量”点击, 打开环境变量窗口
- 在下面”系统变量”中, 选择”新建…”, 打开新建系统变量窗口.
- 变量名填入”OLLAMA_MODELS”, 变量值填入你要保存模型的路径地址, 例如”D:aiollamamodels”.
- 然后点击几个”确定”, 直到关闭”系统属性”窗口.
- ollama如果此时是打开的, 重启一下.
- 点击win键, 输入
cmd
回车, 打开”命令提示符窗口”. - 输入
echo %OLLAMA_MODELS%
回车, 看一下是不是显示刚才设置的路径, 确认环境变量设置成功. - 访问这里, 查看deepseek-r1的模型, 根据需要选择一个.
- 如果你选7b, 就在刚才的”命令提示符窗口”中运行
ollama run deepseek-r1:7b
, 如果选1.5b, 就运行ollama run deepseek-r1:1.5b
. 一般第一次运行本地是没有模型的, 软件会自动下载模型到”OLLAMA_MODELS”环境变量配置的路径. 下载完模型后会自动运行, 可能需要等待一会, 此时输入你想要问的问题, 模型就会回答你. 输入/?
会有帮助信息. 输入/bye
退出模型. 可以输入ollama
回车查看ollama支持的命令. 输入ollama list
可以查看安装的模型. 除了deepseek-r1, 也可以安装其他模型, 可以参考ollama主页信息. - 如果觉得命令提示窗口不好看, 可以安装一个Chatbox, 配置比较简单, 就不详述了.