Windows 本地运行 DeepSeek 部署指南
本文介绍如何在 Windows 机器上完全免费使用开源推理模型,通过 Docker、Ollama 和 Open-WebUI 实现本地大语言模型部署。
步骤 1:安装 Docker 桌面
如果您尚未安装 Docker Desktop,请访问 Docker 官方网站下载并运行安装程序。如需特定设置(如 WSL),请参考相关指导视频。
步骤 2:安装 CUDA 与 Ollama
若需使用 Nvidia 显卡运行 LLM,必须安装 CUDA 驱动程序。
- 打开 CUDA 下载页面,选择'Windows'及'本地'作为安装程序类型,下载并完成安装后重启电脑。
- 前往 Ollama 官网下载并安装。
- 打开 Windows PowerShell,运行以下命令验证安装:
ollama -v
- 在 Ollama 网站选择模型(建议从 7b 开始)。复制模型名称并在 PowerShell 中运行以下命令下载并启动模型:
ollama run deepseek
这将下载镜像并打开 Shell,您可以直接对话。输入 /bye 退出,继续配置图形界面。
步骤 3:安装 Open-WebUI
- 访问 Open-WebUI GitHub 页面,找到'Open WebUI with Nvidia GPU support'。
- 复制提供的 Docker 命令并在 PowerShell 中运行。该命令将下载所需镜像并启动容器。
- 访问 http://localhost:3000/ 即可使用。
Open-WebUI 提供熟悉的聊天界面,支持左侧边栏交互、模型选择等功能,并具备 RAG、图像生成、网页浏览等特性。



