本地私有化 AI 知识库搭建指南
在 AI 时代,拥有一个高效、私密、可控的个人知识库变得尤为重要。本文将详细介绍如何利用 Obsidian、OpenCode、Agent Client 和 MCP Server 这四件套,在本地搭建一个完全私有化的 AI 知识管理系统。所有数据都存储在你的电脑上,无需联网即可享受 AI 带来的便捷。
一、整体架构概述
在开始之前,让我们先了解这四个工具的角色:
介绍如何利用 Obsidian、OpenCode、Agent Client 和 MCP Server 在本地搭建私有化 AI 知识库。通过 Ollama 运行嵌入模型实现笔记向量化,结合语义搜索与本地大模型能力,实现数据隐私安全与高效知识管理。步骤涵盖环境准备、插件配置、服务启动及实际应用场景,支持自定义 Agent 与云端模型扩展。
在 AI 时代,拥有一个高效、私密、可控的个人知识库变得尤为重要。本文将详细介绍如何利用 Obsidian、OpenCode、Agent Client 和 MCP Server 这四件套,在本地搭建一个完全私有化的 AI 知识管理系统。所有数据都存储在你的电脑上,无需联网即可享受 AI 带来的便捷。
在开始之前,让我们先了解这四个工具的角色:
| 工具 | 角色 | 作用 |
|---|---|---|
| Obsidian | 笔记管理 | 本地 Markdown 笔记管理,支持双向链接 |
| MCP Server | 知识索引 | 将笔记向量化,建立语义搜索能力 |
| OpenCode | AI 大脑 | 本地 AI 编程助手,支持多种模型 |
| Agent Client | 对接桥梁 | 让 Obsidian 能调用 AI 能力 |
整个流程是:Obsidian 管理笔记 → MCP Server 将笔记向量化并提供搜索 API → OpenCode 作为 AI 大脑调用 MCP 服务 → Agent Client 将 AI 能力集成到 Obsidian 中。
在开始安装之前,请确保你的电脑上已安装:
查看安装状态:
node --version
npm --version
ollama --version
访问 https://obsidian.md 下载并安装 Obsidian 客户端。创建或选择一个笔记库(Vault)作为你的知识库。
从 https://ollama.com 下载并安装 Ollama。
# 拉取轻量级嵌入模型(推荐)
ollama pull nomic-embed-text
# 或者使用阿里 Qwen 的嵌入模型
ollama pull qwen3-embedding:0.6b
ollama serve
Ollama 会自动在 http://localhost:11434 提供 OpenAI 兼容的 API。
| 配置项 | 值 |
|---|---|
| API Endpoint | http://localhost:11434/v1 |
| Model Name | nomic-embed-text |
| API Key | ollama (任意值) |
索引完成后,你的所有笔记都具备了语义搜索能力!
在命令面板执行"Start MCP Server",服务默认在 http://localhost:9080/sse 运行。
npm install -g opencode-ai
查看安装路径:
where opencode
创建配置文件 ~/.config/opencode/opencode.json:
{
"$schema": "https://opencode.ai/config.json",
"mcp": {
"my-obsidian-knowledge": {
"type": "remote",
"url": "http://localhost:9080/sse",
"enabled": true
}
},
"model": {
"provider": "ollama",
"model": "qwen2.5:7b"
}
}
运行 OpenCode:
opencode
在交互界面输入:
/mcps
如果能看到"my-obsidian-knowledge"已连接,说明配置成功!
| 配置项 | 值 |
|---|---|
| Agent ID | openCode |
| Display name | openCode |
| Path | 你电脑上 opencode.cmd 的完整路径 |
| Arguments | acp |
在 Agent 配置中添加环境变量:
OPENAI_API_KEY=sk-your-key
OPENAI_BASE_URL=https://dashscope.aliyuncs.com/compatible-mode/v1
OPENAI_MODEL=qwen3-coder-plus
或者如果你使用本地 Ollama:
OPENAI_API_KEY=ollama
OPENAI_BASE_URL=http://localhost:11434/v1
OPENAI_MODEL=qwen2.5:7b
现在,你可以在 Obsidian 中:
示例 1:语义搜索笔记
'帮我找找关于 React Hooks 的笔记'
示例 2:基于笔记问答
'根据我的学习笔记,解释一下什么是闭包?'
示例 3:写作辅助
'帮我整理一下这篇会议记录的重点'
OpenCode 支持添加多个 MCP 服务,例如文件系统 MCP:
{
"mcp": {
"my-obsidian-knowledge": {
"type": "remote",
"url": "http://localhost:9080/sse",
"enabled": true
},
"filesystem": {
"type": "local",
"enabled": true,
"command": ["npx", "-y", "@modelcontextprotocol/server-filesystem", "D:/projects"]
}
}
}
如果本地模型不够强大,可以使用阿里云百炼、OpenAI 等云端服务:
{
"model": {
"provider": "openai",
"model": "gpt-4",
"apiKey": "sk-xxx",
"baseUrl": "https://api.openai.com/v1"
}
}
确保 Ollama 正在运行,且嵌入模型已正确安装。
尝试重新索引知识库,或更换嵌入模型。
检查 http://localhost:9080/sse 是否可访问,防火墙是否阻止。
通过以上步骤,你已经成功搭建了一个本地私有化的 AI 知识库:
✅ 数据完全本地存储,隐私安全有保障 ✅ 支持语义搜索,快速定位相关内容 ✅ AI 深度集成,问答、写作、整理样样精通 ✅ 可扩展性强,可接入多种 MCP 服务
这个组合让 Obsidian 从一个简单的笔记软件摇身变成了真正的AI 知识管理助手!

微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online
将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online
将 Markdown(GFM)转为 HTML 片段,浏览器内 marked 解析;与 HTML 转 Markdown 互为补充。 在线工具,Markdown 转 HTML在线工具,online
将 HTML 片段转为 GitHub Flavored Markdown,支持标题、列表、链接、代码块与表格等;浏览器内处理,可链接预填。 在线工具,HTML 转 Markdown在线工具,online