DeepSeek 本地部署最简教程:基于 Ollama 的 GUI 交互方案
本文详细介绍了如何在本地通过 Ollama 部署 DeepSeek 模型,并使用 Chatbox 客户端实现图形化界面交互。内容涵盖 Ollama 环境变量配置(OLLAMA_HOST、OLLAMA_ORIGINS)、Chatbox 下载与连接设置、模型拉取命令、服务启动及测试流程。重点解决了命令行操作的便捷性问题,提供了常见连接错误的排查方法,旨在为开发者提供一套完整的本地 AI 对话工具搭建方案。

本文详细介绍了如何在本地通过 Ollama 部署 DeepSeek 模型,并使用 Chatbox 客户端实现图形化界面交互。内容涵盖 Ollama 环境变量配置(OLLAMA_HOST、OLLAMA_ORIGINS)、Chatbox 下载与连接设置、模型拉取命令、服务启动及测试流程。重点解决了命令行操作的便捷性问题,提供了常见连接错误的排查方法,旨在为开发者提供一套完整的本地 AI 对话工具搭建方案。

在之前的技术分享中,我们介绍了基于 Ollama 的本地模型部署方案。然而,通过命令行(CMD)进行对话操作在便捷性上仍有提升空间。本文旨在介绍如何通过图形用户界面(GUI)调用 Ollama API,实现更友好的本地 AI 对话体验。
针对开发者与不同需求用户,工具选择建议如下:
Chatbox AI 是一款桌面客户端应用,旨在为用户提供更便捷、高效的方式与 AI 交互。
Ollama 默认绑定在 127.0.0.1:11434,仅允许本地访问。若需从其他设备或前端调用,需配置以下环境变量:
用于指定 Ollama 服务监听的主机地址和端口。
127.0.0.1:114340.0.0.0:11434,允许所有网络接口访问。export OLLAMA_HOST=0.0.0.0:11434
用于控制 Ollama API 的跨域请求来源(CORS)。默认仅允许同源请求。
# 允许特定域名
export OLLAMA_ORIGINS="http://localhost:3000,https://example.com"
# 允许所有来源(开发环境慎用)
export OLLAMA_ORIGINS="*"
注意:Windows 用户可通过'系统属性' -> '高级' -> '环境变量'进行配置;Linux/Mac 用户可将其添加到
~/.bashrc或/etc/environment中。
在使用 GUI 之前,确保已下载所需的模型。以 DeepSeek R1 为例:
ollama pull deepseek-r1
查看已下载的模型列表:
ollama list
http://localhost:11434)。deepseek-r1)。ollama serve
OLLAMA_ORIGINS 环境变量已正确设置并重启 Ollama 服务。通过 Ollama 配合 Chatbox,开发者可以构建高效的本地 AI 工作流。无论是代码辅助还是知识问答,合理运用这些工具都能显著提升工作效率。保持批判性思维,将 AI 输出与专业知识体系深度融合,方能实现真正的价值创造。
本文内容仅供技术交流,不涉及任何第三方诱导下载或付费推广信息。

微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online
将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online
将 Markdown(GFM)转为 HTML 片段,浏览器内 marked 解析;与 HTML转Markdown 互为补充。 在线工具,Markdown转HTML在线工具,online
将 HTML 片段转为 GitHub Flavored Markdown,支持标题、列表、链接、代码块与表格等;浏览器内处理,可链接预填。 在线工具,HTML转Markdown在线工具,online