以下是借助 Ollama 工具简化版的 DeepSeek 本地部署流程(对新手友好,Windows、macOS、Linux 系统通用思路 ),不想折腾复杂环境配置的话,优先选这种:
一、前期准备
确认电脑系统(Windows/macOS/Linux 均可 ),不同系统 Ollama 安装包有差异,后续按需选;模型运行依赖硬件,比如想跑大参数模型(像 14B 及以上 ),建议显卡显存 16GB + 、内存 32GB + ,低配电脑可选小参数版(如 1.5B )降低压力。
二、部署步骤
1. 安装 Ollama(关键工具 )
- 打开浏览器,访问 Ollama 官网 。
- 点击页面 “Download”,根据系统选对应安装包(Windows 点右边、macOS 点左边 ),下载后双击安装,桌面出现 小羊驼图标 即成功。(Windows 建议装 C 盘,装其他盘可能要额外配环境变量,新手怕麻烦就默认装 C )
2. 选 DeepSeek 模型
- 回到 Ollama 官网,点右上角 “Models” ,搜索找到 DeepSeek-R1 系列模型(有 1.5b、7b、14b 等参数版本 )。
- 按电脑配置选:低配(如办公本 )选 1.5b ;中等配置(游戏本、普通工作站 )可选 7b/14b ;高配(专业 GPU 服务器 )可挑战 32b 及以上。
3. 下载 & 安装模型
- 选好模型版本后,复制官网给的命令(示例:
ollama run deepseek-r1:1.5b
,参数版本不同命令里的数字会变 )。
- 按 Win + R(Windows )或打开终端(macOS/Linux ),输入
cmd
(Windows )回车,弹出命令行窗口,粘贴刚复制的命令,回车执行。
- 模型开始下载,时间看网速和模型大小(小模型 1.5b 可能几分钟,大模型几十 GB 得等更久 ),耐心等下载完成,命令行提示可交互就装好了。
4. 本地运行 & 对话
- 模型下载完,在命令行直接输
ollama run deepseek-r1:1.5b
(和下载命令一样,参数对应你选的版本 ),回车后就能输入问题,和本地 DeepSeek 对话啦!断网也能用,数据存在本地,隐私性更好~
三、进阶玩法(可选,让交互更方便 )
要是觉得命令行交互麻烦,想搞个网页/图形界面,试试 Open-WebUI :
- 装 Docker(容器工具 ):
去 Docker 官网 ,下对应系统的 Docker 桌面版,安装后重启电脑,桌面有 Docker 图标即成功。
- 装 Open-WebUI:
- Windows/macOS:打开命令行,复制 Open-WebUI 官网(open-webui.io )给的安装命令(一般是
docker run ...
格式 ),粘贴执行。
- Linux:同理,用终端运行官网命令。
- 访问 & 用界面:
安装完,浏览器打开 http://localhost:3000
,注册登录后,左上角选你装的 DeepSeek 模型(如 deepseek-r1:1.5b ),就能在网页界面聊天,比命令行直观~
四、注意事项
- 模型参数越大,对电脑硬件(显卡、内存 )要求越高,跑不动就换小参数版;
- 若命令行报错,先看提示(比如网络问题、Ollama 没装好 ),官网或社区搜报错关键词基本能解决;
- 想换模型/版本,重复 “选模型 → 复制命令 → 命令行运行” 步骤就行,Ollama 会自动管理多模型 。
按这流程,基本能把 DeepSeek 部署到本地玩起来啦,动手试试吧~