Obsidian+Claude Code打造本地AI知识库

Claudian + Obsidian Skills

1. 核心组件

  • Claudian: Obsidian 第三方插件(暂未上架官方市场),适配 Claude Code。
  • Obsidian Skills: 由 Obsidian CEO (Kepano) 发布的 Skill 包,赋予 AI 处理 Canvas、Markdown 及数据库的能力。

2. 环境部署流程

2.1 安装 Claudian 插件 (手动旁加载)

  1. 获取文件: 访问 GitHub 仓库 claudian,下载以下三个核心文件:
    • main.js
    • manifest.json
    • styles.css
  2. 放置插件:
    • 进入 Obsidian 仓库根目录。
    • 路径导航: .obsidian -> plugins
    • 新建文件夹命名为 claudian
    • 将上述三个文件放入该文件夹。
  3. 启用: 重启 Obsidian,在“第三方插件”中开启 Claudian。

2.2 配置模型参数

  1. 打开 Claudian 设置页。
  2. 基础设置: 设置 User Name (如 Jason)。
  3. 自定义AI模型: 使用智谱GLM或DeepSeek来替换Claude模型。
ANTHROPIC_BASE_URL=https://open.bigmodel.cn/api/anthropic ANTHROPIC_API_KEY=你的智谱api key ANTHROPIC_DEFAULT_OPUS_MODEL=GLM-5.0 
我今天试了一下新发布的glm5,竟然把我代码里藏了好多天的bug改掉了,感觉还是挺厉害的。
  1. 连通性验证:
    • Ctrl/Cmd + P 调出命令面板 -> 输入 claudian -> 选择 Open chat view
    • 发送“你好”,若回复正常则配置成功。

2.3 部署 Obsidian Skills

  1. 下载: 访问 GitHub 仓库 kepano/obsidian-skills,下载 ZIP 包并解压。
  2. 安装:
    • 复制解压后的 skills 文件夹。
    • 进入 Obsidian 仓库根目录。
    • 进入或新建 .claude 隐藏文件夹。
    • 粘贴 skills 文件夹 (最终路径: [Vault Root]/.claude/skills/)。
  3. 验证: 在 Claudian 对话框输入 /skills,应显示以下三个 Skill:
    • obsidian-markdown: 处理专有 Markdown 语法。
    • json-canvas: 生成/编辑无限画布。
    • obsidian-bases: 数据库管理。
这里其实就跟添加skills的思路是一样的,只是取决于你想要只装在obsidian里面还是全局skills

3. 实战应用与技巧

3.1 典型用例:生成知识图谱

  • 指令: “使用无限画布 canvas 画出地中海饮食的知识结构图,并保存到根目录。”
  • 流程: AI 自动调用 json-canvas skill -> 分析逻辑 -> 在根目录直接生成 .canvas 文件。

3.2 优化

由于 Skill 定义为英文,中文指令可能导致匹配偏差,建议方案:

  • 显式指令: 在 Prompt 中明确指定工具名 (如“请使用 json-canvas skill…”)。
  • 系统提示词 (System Prompt): 在插件设置中添加规则 —— “收到指令后优先思考并匹配最合适的 Skill”。

4. 为什么obsidian不做agent

  • 官方态度 (Stephan Ango/Kepano):
    • 发布渠道: 选择在个人 GitHub 账号而非 Obsidian 官方账号发布,体现了 “非官方强制” 的定位。
    • 核心哲学: 知行合一。坚持 Local-firstPrivacy-first,不构建封闭的官方 AI 环境,也不参与 AI 军备竞赛。
  • 差异化优势:
    • 不同于 Notion 的云端封闭生态。
    • Obsidian 文件完全本地化,鼓励用户基于隐私安全,“手搓”适合自己的 AI Agent。

Read more

前端微前端:大型应用的模块化解决方案

前端微前端:大型应用的模块化解决方案 毒舌时刻 前端微前端?这不是过度设计吗? "我的应用不大,不需要微前端"——结果应用越来越大,维护困难, "微前端太复杂了,不如一个大单体"——结果团队协作困难,部署冲突, "我用iframe就够了"——结果性能差,用户体验差。 醒醒吧,微前端不是银弹,但对于大型应用来说,它是一个有效的解决方案! 为什么你需要这个? * 团队协作:不同团队可以独立开发和部署 * 技术栈灵活:不同微前端可以使用不同的技术栈 * 独立部署:单个微前端可以独立部署,不影响其他部分 * 可扩展性:可以轻松添加新的微前端 反面教材 <!-- 反面教材:使用iframe实现微前端 --> <!DOCTYPE html> <html>

【LLM】Ollama:本地大模型 WebAPI 调用实战指南

1. 为什么选择Ollama部署本地大模型 最近两年大模型技术发展迅猛,但很多开发者面临一个现实问题:公有云API调用不仅费用高昂,还存在数据隐私风险。Ollama的出现完美解决了这个痛点,它就像是你本地的模型管家,可以一键部署各种开源大模型。我去年在开发智能客服系统时就深受其益,既避免了敏感客户数据外泄,又省下了大笔API调用费用。 与传统方案相比,Ollama有三大优势:首先是安装简单,用Docker一条命令就能跑起来;其次是模型丰富,支持Llama、Mistral等主流开源模型;最重要的是API标准化,完全兼容OpenAI的接口规范。实测在16GB内存的MacBook Pro上运行7B参数的模型,响应速度可以控制在2秒以内,完全能满足大多数应用场景。 2. 五分钟快速搭建Ollama环境 2.1 准备工作就像搭积木 在开始之前,我们需要准备两个基础组件:Docker和Python环境。这里有个小技巧分享——建议使用Docker Desktop的WSL2后端(Windows用户),性能比传统虚拟机模式提升30%以上。安装完成后,记得执行以下命令验证版本: docker

前端国际化:别让你的应用只懂一种语言

前端国际化:别让你的应用只懂一种语言 毒舌时刻 这应用写得跟方言似的,出了本地就没人懂。 各位前端同行,咱们今天聊聊前端国际化。别告诉我你的应用还只有中文版本,那感觉就像在国际会议上只说方言——能说,但没人懂。 为什么你需要国际化 最近看到一个项目,想拓展海外市场,但所有文本都是硬编码在代码里的。我就想问:你是在做本地应用还是在做国际产品? 反面教材 // 反面教材:硬编码文本 function App() { return ( <div> <h1>欢迎来到我的网站</h1> <p>这是一个示例应用</p> <button>点击我</button> <div>

PowerShell中Invoke-WebRequest的正确使用:避免参数匹配错误

1. 从一次报错说起:为什么我的curl命令在PowerShell里不灵了? 那天我正在调试一个本地API接口,很自然地就在PowerShell里敲下了 curl -X POST http://127.0.0.1:8199/api/post。这命令在Linux的Bash终端里我用了无数次,闭着眼睛都能敲对。结果,PowerShell毫不留情地甩给我一个红字报错:Invoke-WebRequest : 找不到与参数名称“X”匹配的参数。 我当时就愣住了,心想:“-X POST”这不是curl的标准写法吗?怎么到你这儿就不认了?相信很多从Linux/macOS转战Windows,或者刚开始接触PowerShell的朋友,都踩过这个坑。这个错误看似简单,背后却藏着PowerShell设计哲学和命令别名的“小心思”。简单来说,在PowerShell里,curl 并不是你熟悉的那个cURL工具,而是 Invoke-WebRequest 这个PowerShell原生Cmdlet的一个别名。这就好比你在北京叫“师傅”可能是在打招呼,在别的地方可能就是在称呼真正的老师傅,语境完全不同。Invoke-