在 Windows 上本地运行 DeepSeek 模型的步骤指南
步骤 0:安装 Docker 桌面
很多人已经安装了它,可以跳过。如果没有,请访问 Docker 官方网站,下载并运行安装程序。
如果需要特定设置(例如使用 WSL),请参考相关指导视频。我将继续下一步。
步骤 1:安装 CUDA 以获得 GPU 支持
如果您想使用 Nvidia 显卡运行 LLM,则必须安装 CUDA 驱动程序。
打开 CUDA 下载页面,选择'Windows'和其他选项,然后选择'本地'作为安装程序类型:

下载并完成安装即可,此处需要重新启动。
步骤 2:安装 Ollama 并下载模型
前往 Ollama 网站并点击下载按钮。
Ollama是一款开源 AI 工具,使用户能够在其设备上本地运行大型语言模型,为自然语言处理任务提供定制化、高效和离线功能。
安装后,打开'Windows PowerShell'并通过运行以下命令验证您的安装:
ollama -v
再次打开 Ollama 网站并选择您的型号。DeepSeek 是其中可选的模型之一,建议从 7b 版本开始,检查它如何与您的机器配合使用。例如,我运行 i7-11 系列处理器和 NVIDIA GeForce RTX 2080 SUPER 以及 8GB GPU,可以在正常速度下使用 14b 型号。
选择后,复制命令并在 PowerShell 中运行:
ollama run deepseek-coder:7b
它将像上面一样下载并打开 shell,您可以在这里直接与它聊天。但是让我们输入 /bye 退出,并继续设置一个实际的 UI,而不是从 PowerShell 提示操作。
步骤 3:安装 Open-WebUI
打开 GitHub 页面,找到'Open WebUI with Nvidia GPU support'。
复制该命令并再次在 PowerShell 中运行它。它将下载所有需要的 docker 镜像并运行容器,您可以通过 http://localhost:3000/访问该容器。
对于任何 LLM 用户来说,这都是一个熟悉的用户界面,左侧边栏用于聊天,左上角可用于选择已安装的模型等。
Open-WebUI 具有大量功能,例如 RAG、图像生成、网页浏览等。您可以查看其完整功能列表以了解更多细节。


