准备工作:安装 Docker 桌面
如果未安装,请访问 Docker 官网下载并运行安装程序。如需使用 WSL 等特定设置,请参考相关文档。
步骤 1:安装 CUDA 以获得 GPU 支持
若需使用 Nvidia 显卡运行大语言模型(LLM),必须安装 CUDA 驱动程序。打开 CUDA 下载页面,选择 Windows 选项和本地安装程序类型进行下载和安装。完成后需要重启电脑。
步骤 2:安装 Ollama 并下载模型
访问 Ollama 官网下载并安装。Ollama 是一款开源 AI 工具,允许用户在本地设备上运行大型语言模型。
安装后,打开 Windows PowerShell 并通过以下命令验证安装:
ollama -v
访问 Ollama 模型库页面选择模型。建议选择 deepseek-coder 或 llama3 等 7B 参数量的模型进行测试。复制命令并在 PowerShell 中运行以下载模型。
下载完成后将启动 Shell,可直接对话。为获得更好体验,建议配置图形界面。
步骤 3:安装 Open-WebUI
访问 Open-WebUI GitHub 页面,找到'Open WebUI with Nvidia GPU support'部分。复制该命令并在 PowerShell 中运行。它将下载所需的 Docker 镜像并运行容器。
通过 http://localhost:3000/ 即可访问容器界面。该界面左侧边栏用于聊天,左上角可选择已安装的模型。Open-WebUI 支持 RAG、图像生成等功能。完整功能列表可参考其官方文档。


