手把手教你打造本地私有化AI知识库:Obsidian + OpenCode + Agent Client + MCP Server 完全指南

手把手教你打造本地私有化AI知识库:Obsidian + OpenCode + Agent Client + MCP Server 完全指南

在AI时代,拥有一个高效、私密、可控的个人知识库变得尤为重要。本文将详细介绍如何利用Obsidian + OpenCode + Agent Client + MCP Server这四件套,在本地搭建一个完全私有化的AI知识管理系统。所有数据都存储在你的电脑上,无需联网即可享受AI带来的便捷!


一、整体架构概述

在开始之前,让我们先了解这四个工具的角色:

工具角色作用
Obsidian笔记管理本地Markdown笔记管理,支持双向链接
MCP Server知识索引将笔记向量化,建立语义搜索能力
OpenCodeAI大脑本地AI编程助手,支持多种模型
Agent Client对接桥梁让Obsidian能调用AI能力

整个流程是:Obsidian管理笔记 → MCP Server将笔记向量化并提供搜索API → OpenCode作为AI大脑调用MCP服务 → Agent Client将AI能力集成到Obsidian中。


二、环境准备

在开始安装之前,请确保你的电脑上已安装:

  1. Node.js (推荐v18或更高版本)
  2. Ollama (用于本地运行嵌入模型)
  3. npm (Node.js包管理器)

查看安装状态:

node --version npm --version ollama --version 

三、第一步:安装和配置Obsidian

3.1 下载安装Obsidian

访问 https://obsidian.md 下载并安装Obsidian客户端。创建或选择一个笔记库(Vault)作为你的知识库。

3.2 安装必要插件

  1. 安装BRAT插件
    • 打开设置 → 社区插件 → 关闭安全模式
    • 点击浏览,搜索"BRAT"并安装
  2. 通过BRAT安装Agent Client Plugin
    • 启用BRAT后,点击"Add Beta plugin"
    • 输入:https://github.com/agent-client/obsidian-agent-client
  3. 安装Obsidian MCP Server
    • 同样通过BRAT安装: https://github.com/Minhao-Zhang/obsidian-mcp-server

四、第二步:配置Ollama和向量化模型

4.1 安装Ollama

从 https://ollama.com 下载并安装Ollama。

4.2 拉取嵌入模型

# 拉取轻量级嵌入模型(推荐) ollama pull nomic-embed-text # 或者使用阿里Qwen的嵌入模型 ollama pull qwen3-embedding:0.6b 

4.3 启动Ollama服务

ollama serve 

Ollama会自动在 http://localhost:11434 提供OpenAI兼容的API。


五、第三步:配置Obsidian MCP Server

5.1 配置嵌入模型

  1. 打开Obsidian设置,找到MCP Server插件
  2. 在"Embedding Model"部分进行配置:
配置项
API Endpointhttp://localhost:11434/v1
Model Namenomic-embed-text
API Keyollama (任意值)
  1. 点击"Verify"测试连接

5.2 索引知识库

  1. 按 Ctrl/Cmd+P 打开命令面板
  2. 执行"Re-index Vault (MCP Server)"
  3. 等待索引完成

索引完成后,你的所有笔记都具备了语义搜索能力!

5.3 启动MCP Server

在命令面板执行"Start MCP Server",服务默认在 http://localhost:9080/sse 运行。


六、第四步:安装和配置OpenCode

6.1 安装OpenCode

npminstall -g opencode-ai 

查看安装路径:

where opencode 

6.2 配置OpenCode

创建配置文件 ~/.config/opencode/opencode.json

{"$schema":"https://opencode.ai/config.json","mcp":{"my-obsidian-knowledge":{"type":"remote","url":"http://localhost:9080/sse","enabled":true}},"model":{"provider":"ollama","model":"qwen2.5:7b"}}

6.3 验证MCP连接

运行OpenCode:

opencode 

在交互界面输入:

/mcps 

如果能看到"my-obsidian-knowledge"已连接,说明配置成功!


七、第五步:配置Agent Client

7.1 配置自定义Agent

  1. 打开Obsidian的Agent Client插件设置
  2. 点击"Add custom agent",配置如下:
配置项
Agent IDopenCode
Display nameopenCode
Path你电脑上opencode.cmd的完整路径
Argumentsacp

7.2 环境变量配置

在Agent配置中添加环境变量:

OPENAI_API_KEY=sk-your-key OPENAI_BASE_URL=https://dashscope.aliyuncs.com/compatible-mode/v1 OPENAI_MODEL=qwen3-coder-plus 

或者如果你使用本地Ollama:

OPENAI_API_KEY=ollama OPENAI_BASE_URL=http://localhost:11434/v1 OPENAI_MODEL=qwen2.5:7b 

六、第六步:开始使用

6.1 在Obsidian中调用AI

现在,你可以在Obsidian中:

  1. 使用命令面板调用Agent
  2. 让AI帮你搜索知识库中的相关内容
  3. 让AI根据你的笔记回答问题

6.2 使用示例

示例1:语义搜索笔记

“帮我找找关于React Hooks的笔记”

示例2:基于笔记问答

“根据我的学习笔记,解释一下什么是闭包?”

示例3:写作辅助

“帮我整理一下这篇会议记录的重点”

七、进阶扩展

7.1 添加更多MCP服务

OpenCode支持添加多个MCP服务,例如文件系统MCP:

{"mcp":{"my-obsidian-knowledge":{"type":"remote","url":"http://localhost:9080/sse","enabled":true},"filesystem":{"type":"local","enabled":true,"command":["npx","-y","@modelcontextprotocol/server-filesystem","D:/projects"]}}}

7.2 使用云端大模型

如果本地模型不够强大,可以使用阿里云百炼、OpenAI等云端服务:

{"model":{"provider":"openai","model":"gpt-4","apiKey":"sk-xxx","baseUrl":"https://api.openai.com/v1"}}

八、常见问题

Q1: MCP Server启动失败?

确保Ollama正在运行,且嵌入模型已正确安装。

Q2: 向量搜索结果不准确?

尝试重新索引知识库,或更换嵌入模型。

Q3: OpenCode无法连接MCP?

检查 http://localhost:9080/sse 是否可访问,防火墙是否阻止。


总结

通过以上步骤,你已经成功搭建了一个本地私有化的AI知识库:

数据完全本地存储,隐私安全有保障
支持语义搜索,快速定位相关内容
AI深度集成,问答、写作、整理样样精通
可扩展性强,可接入多种MCP服务

这个组合让Obsidian从一个简单的笔记软件摇身变成了真正的AI知识管理助手!快去试试吧!


如果觉得有帮助,欢迎转发分享!有问题欢迎在评论区留言讨论。

Read more

安装 启动 使用 Neo4j的超详细教程

安装 启动 使用 Neo4j的超详细教程

最近在做一个基于知识图谱的智能生成项目。需要用到Neo4j图数据库。写这篇文章记录一下Neo4j的安装及其使用。 一.Neo4j的安装 1.首先安装JDK,配环境变量。(参照网上教程,很多) Neo4j是基于Java的图形数据库,运行Neo4j需要启动JVM进程,因此必须安装JAVA SE的JDK。从Oracle官方网站下载 Java SE JDK。我使用的版本是JDK1.8 2.官网上安装neo4j。 官方网址:https://neo4j.com/deployment-center/  在官网上下载对应版本。Neo4j应用程序有如下主要的目录结构: bin目录:用于存储Neo4j的可执行程序; conf目录:用于控制Neo4j启动的配置文件; data目录:用于存储核心数据库文件; plugins目录:用于存储Neo4j的插件; 3.配置环境变量 创建主目录环境变量NEO4J_HOME,并把主目录设置为变量值。复制具体的neo4j文件地址作为变量值。 配置文档存储在conf目录下,Neo4j通过配置文件neo4j.conf控制服务器的工作。默认情况下,不需

企业微信群机器人Webhook配置全攻略:从创建到发送消息的完整流程

企业微信群机器人Webhook配置全攻略:从创建到发送消息的完整流程 在数字化办公日益普及的今天,企业微信作为国内领先的企业级通讯工具,其群机器人功能为团队协作带来了极大的便利。本文将手把手教你如何从零开始配置企业微信群机器人Webhook,实现自动化消息推送,提升团队沟通效率。 1. 准备工作与环境配置 在开始创建机器人之前,需要确保满足以下基本条件: * 企业微信账号:拥有有效的企业微信管理员或成员账号 * 群聊条件:至少包含3名成员的群聊(这是创建机器人的最低人数要求) * 网络环境:能够正常访问企业微信服务器 提示:如果是企业管理员,建议先在"企业微信管理后台"确认机器人功能是否已对企业开放。某些企业可能出于安全考虑会限制此功能。 2. 创建群机器人 2.1 添加机器人到群聊 1. 打开企业微信客户端,进入目标群聊 2. 点击右上角的群菜单按钮(通常显示为"..."或"⋮") 3. 选择"添加群机器人"选项 4.

Flowise物联网融合:与智能家居设备联动的应用设想

Flowise物联网融合:与智能家居设备联动的应用设想 1. Flowise:让AI工作流变得像搭积木一样简单 Flowise 是一个真正把“AI平民化”落地的工具。它不像传统开发那样需要写几十行 LangChain 代码、配置向量库、调试提示词模板,而是把所有这些能力打包成一个个可拖拽的节点——就像小时候玩乐高,你不需要懂塑料怎么合成,只要知道哪块该拼在哪,就能搭出一座城堡。 它诞生于2023年,短短一年就收获了45.6k GitHub Stars,MIT协议开源,意味着你可以放心把它用在公司内部系统里,甚至嵌入到客户交付的产品中,完全不用担心授权问题。最打动人的不是它的技术多炫酷,而是它真的“不挑人”:产品经理能搭出知识库问答机器人,运营同学能配出自动抓取竞品文案的Agent,连刚学Python两周的实习生,也能在5分钟内跑通一个本地大模型的RAG流程。 它的核心逻辑很朴素:把LangChain里那些抽象概念——比如LLM调用、文档切分、向量检索、工具调用——变成画布上看得见、摸得着的方块。你拖一个“Ollama LLM”节点,再拖一个“Chroma Vector

OpenClaw配置Bot接入飞书机器人+Kimi2.5

OpenClaw配置Bot接入飞书机器人+Kimi2.5

上一篇文章写了Ubuntu_24.04下安装OpenClaw的过程,这篇文档记录一下接入飞书机器+Kimi2.5。 准备工作 飞书 创建飞书机器人 访问飞书开放平台:https://open.feishu.cn/app,点击创建应用: 填写应用名称和描述后就直接创建: 复制App ID 和 App Secret 创建成功后,在“凭证与基础信息”中找到 App ID 和 App Secret,把这2个信息复制记录下来,后面需要配置到openclaw中 配置权限 点击【权限管理】→【开通权限】 或使用【批量导入/导出权限】,选择导入,输入以下内容,如下图 点击【下一步,确认新增权限】即可开通所需要的权限。 配置事件与回调 说明:这一步的配置需要先讲AppId和AppSecret配置到openclaw成功之后再设置订阅方式,