本地电脑使用 Ollama 部署大模型及 Chatbox 界面指南
在某些场景下,构建完全本地离线可用的大模型是必要需求。方法众多,如 Qwen、Llama3 等,最简单快捷的方式是使用 Ollama 进行部署。针对中文任务,推荐选用 Qwen 系列模型。
本文介绍如何在本地 Windows 环境下通过 Ollama 部署开源大模型,包括命令行交互与 Chatbox 图形界面配置。内容涵盖软件安装、模型选择策略、参数配置、基础 API 调用方法及常见故障排查,旨在帮助用户构建离线可用的 AI 应用环境。

在某些场景下,构建完全本地离线可用的大模型是必要需求。方法众多,如 Qwen、Llama3 等,最简单快捷的方式是使用 Ollama 进行部署。针对中文任务,推荐选用 Qwen 系列模型。
在开始之前,请确保您的电脑满足以下基本要求:
访问 Ollama 官网下载对应系统的安装包。

下载完成后双击运行安装程序,按照提示完成安装流程。
安装完毕后,打开命令行工具(Windows 下为 CMD 或 PowerShell)。

输入以下命令检查版本信息:
ollama --version
若显示版本号,说明安装成功。
Ollama 支持多种开源模型。对于中文任务,Qwen 系列效果较好。

在命令行中执行拉取并运行命令。例如运行 Qwen 7B 版本:
ollama run qwen:7b
参数说明:
7b:代表 70 亿参数,适合大多数消费级电脑。14b / 32b:参数量更大,效果更佳,但需要更高配置(如 12G+ 显存)。等待下载完成后,即可直接在终端进行对话交互。
除了运行模型,Ollama 提供了丰富的 CLI 管理命令:
| 命令 | 功能 |
|---|---|
ollama list | 列出已下载的模型 |
ollama rm <name> | 删除指定模型 |
ollama pull <name> | 手动拉取模型 |
ollama stop <name> | 停止正在运行的模型服务 |
示例:查看已安装的模型列表
ollama list
Ollama 默认启动后会在本地提供 HTTP API 服务(端口 11434)。开发者可以通过代码调用。
import requests
import json
def chat_with_ollama(prompt):
url = "http://localhost:11434/api/generate"
data = {
"model": "qwen:7b",
"prompt": prompt,
"stream": False
}
response = requests.post(url, json=data)
return response.json()['response']
if __name__ == "__main__":
result = chat_with_ollama("你好,请介绍一下你自己")
print(result)
此方式便于将本地大模型集成到自定义应用中。
如果习惯使用图形界面,Chatbox 是一个优秀的第三方客户端。
下载 Chatbox 的 Windows 版 exe 文件并安装。
首次运行点击设置,在连接选项中选择 "Ollama"。

在模型下拉框中选择通过 ollama run 安装的模型,保存后即可开始对话。

更多高级功能可在左侧探索面板中使用。
通过 Ollama 部署本地大模型,可以实现数据隐私保护与离线使用。结合 Chatbox 图形界面或 API 开发,能够灵活满足不同场景下的 AI 应用需求。

微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online
将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online
将 Markdown(GFM)转为 HTML 片段,浏览器内 marked 解析;与 HTML转Markdown 互为补充。 在线工具,Markdown转HTML在线工具,online
将 HTML 片段转为 GitHub Flavored Markdown,支持标题、列表、链接、代码块与表格等;浏览器内处理,可链接预填。 在线工具,HTML转Markdown在线工具,online