DeepSeek本地部署正确姿势

很多教程都讲了DeepSeek本地部署的方法, 但是有些细节没有讲明白. 导致后面出现各种问题. 本教程将详细介绍部署细节, 一次部署, 终身受益.

硬件需求

大模型运行需要消耗很多硬件资源, 如果电脑配置比较低, 没有网络限制, 没有很强的隐私和安全需求, 不建议本地部署. 去薅羊毛吧. 能薅羊毛的地方很多. 所以部署前先想清楚自己是不是需要做本地部署.
1. CPU至少不弱于Intel 7代之后的.
2. 内存至少16G.
3. 独立显卡是必须的, 至少性能不弱于RTX 1060, 最差也得是RTX 1050. 1050用1.5b的模型还行, 用7b的模型就有点卡了.
4. 最好是固态硬盘, 根据模型不同, 需要的硬盘空间也不一样. 模型最小1.1GB, 最大404GB.
5. 此教程只讲Win10系统, Win11应该差不多.

部署步骤

  1. 下载ollama, 这个是一个模型管理软件, 通过它可以下载和运行deepseek. 下载地址, 下载完成后, 双击”OllamaSetup.exe”, Install
  2. 配置ollama, 这一步很多教程没有讲. 如果跳过这一步, 后面的模型会默认安装到C盘下. 如果你的C盘空间不大, 有可能装完就报红了. 建议按照这一步要求, 把模型安装路径配置到其他盘符下.
    • 右键点击”此电脑 => 属性”, 打开设置窗口.
    • 右边找”高级系统设置”点击, 打开”系统属性”窗口.
    • 点击选项卡”高级”, 再找”环境变量”点击, 打开环境变量窗口
    • 在下面”系统变量”中, 选择”新建…”, 打开新建系统变量窗口.
    • 变量名填入”OLLAMA_MODELS”, 变量值填入你要保存模型的路径地址, 例如”D:aiollamamodels”.
    • 然后点击几个”确定”, 直到关闭”系统属性”窗口.
  3. ollama如果此时是打开的, 重启一下.
  4. 点击win键, 输入cmd回车, 打开”命令提示符窗口”.
  5. 输入echo %OLLAMA_MODELS%回车, 看一下是不是显示刚才设置的路径, 确认环境变量设置成功.
  6. 访问这里, 查看deepseek-r1的模型, 根据需要选择一个.
  7. 如果你选7b, 就在刚才的”命令提示符窗口”中运行ollama run deepseek-r1:7b, 如果选1.5b, 就运行ollama run deepseek-r1:1.5b. 一般第一次运行本地是没有模型的, 软件会自动下载模型到”OLLAMA_MODELS”环境变量配置的路径. 下载完模型后会自动运行, 可能需要等待一会, 此时输入你想要问的问题, 模型就会回答你. 输入/?会有帮助信息. 输入/bye退出模型. 可以输入ollama回车查看ollama支持的命令. 输入ollama list可以查看安装的模型. 除了deepseek-r1, 也可以安装其他模型, 可以参考ollama主页信息.
  8. 如果觉得命令提示窗口不好看, 可以安装一个Chatbox, 配置比较简单, 就不详述了.

发表评论

您的邮箱地址不会被公开。 必填项已用 * 标注

滚动至顶部