Obsidian+Claude Code打造本地AI知识库

Claudian + Obsidian Skills

1. 核心组件

  • Claudian: Obsidian 第三方插件(暂未上架官方市场),适配 Claude Code。
  • Obsidian Skills: 由 Obsidian CEO (Kepano) 发布的 Skill 包,赋予 AI 处理 Canvas、Markdown 及数据库的能力。

2. 环境部署流程

2.1 安装 Claudian 插件 (手动旁加载)

  1. 获取文件: 访问 GitHub 仓库 claudian,下载以下三个核心文件:
    • main.js
    • manifest.json
    • styles.css
  2. 放置插件:
    • 进入 Obsidian 仓库根目录。
    • 路径导航: .obsidian -> plugins
    • 新建文件夹命名为 claudian
    • 将上述三个文件放入该文件夹。
  3. 启用: 重启 Obsidian,在“第三方插件”中开启 Claudian。

2.2 配置模型参数

  1. 打开 Claudian 设置页。
  2. 基础设置: 设置 User Name (如 Jason)。
  3. 自定义AI模型: 使用智谱GLM或DeepSeek来替换Claude模型。
ANTHROPIC_BASE_URL=https://open.bigmodel.cn/api/anthropic ANTHROPIC_API_KEY=你的智谱api key ANTHROPIC_DEFAULT_OPUS_MODEL=GLM-5.0 
我今天试了一下新发布的glm5,竟然把我代码里藏了好多天的bug改掉了,感觉还是挺厉害的。
  1. 连通性验证:
    • Ctrl/Cmd + P 调出命令面板 -> 输入 claudian -> 选择 Open chat view
    • 发送“你好”,若回复正常则配置成功。

2.3 部署 Obsidian Skills

  1. 下载: 访问 GitHub 仓库 kepano/obsidian-skills,下载 ZIP 包并解压。
  2. 安装:
    • 复制解压后的 skills 文件夹。
    • 进入 Obsidian 仓库根目录。
    • 进入或新建 .claude 隐藏文件夹。
    • 粘贴 skills 文件夹 (最终路径: [Vault Root]/.claude/skills/)。
  3. 验证: 在 Claudian 对话框输入 /skills,应显示以下三个 Skill:
    • obsidian-markdown: 处理专有 Markdown 语法。
    • json-canvas: 生成/编辑无限画布。
    • obsidian-bases: 数据库管理。
这里其实就跟添加skills的思路是一样的,只是取决于你想要只装在obsidian里面还是全局skills

3. 实战应用与技巧

3.1 典型用例:生成知识图谱

  • 指令: “使用无限画布 canvas 画出地中海饮食的知识结构图,并保存到根目录。”
  • 流程: AI 自动调用 json-canvas skill -> 分析逻辑 -> 在根目录直接生成 .canvas 文件。

3.2 优化

由于 Skill 定义为英文,中文指令可能导致匹配偏差,建议方案:

  • 显式指令: 在 Prompt 中明确指定工具名 (如“请使用 json-canvas skill…”)。
  • 系统提示词 (System Prompt): 在插件设置中添加规则 —— “收到指令后优先思考并匹配最合适的 Skill”。

4. 为什么obsidian不做agent

  • 官方态度 (Stephan Ango/Kepano):
    • 发布渠道: 选择在个人 GitHub 账号而非 Obsidian 官方账号发布,体现了 “非官方强制” 的定位。
    • 核心哲学: 知行合一。坚持 Local-firstPrivacy-first,不构建封闭的官方 AI 环境,也不参与 AI 军备竞赛。
  • 差异化优势:
    • 不同于 Notion 的云端封闭生态。
    • Obsidian 文件完全本地化,鼓励用户基于隐私安全,“手搓”适合自己的 AI Agent。

Read more

GLM-4.6V-Flash-WEB Web界面使用指南,拖图就出结果

GLM-4.6V-Flash-WEB Web界面使用指南,拖图就出结果 你不需要配置环境、不用写一行推理代码、甚至不用打开终端——只要把一张截图拖进浏览器窗口,几秒钟后,它就能告诉你图里写了什么、画了什么、哪里有问题。这不是未来预告,而是你现在就能在本地跑起来的真实体验。 GLM-4.6V-Flash-WEB 是智谱AI最新开源的轻量级视觉语言模型,专为Web端实时交互而生。它不像某些“实验室模型”那样只存在于论文和Benchmark表格里,而是真正做到了:部署快、启动快、响应快、上手更快。一块RTX 3090,一个浏览器,一次拖拽,结果即刻呈现。 本文不讲训练原理,不列参数表格,不堆技术术语。我们只聚焦一件事:怎么用好它的Web界面?从零开始,到稳定产出,每一步都清晰可操作。 1. 为什么说“拖图就出结果”不是宣传话术? 很多多模态模型标榜“支持图文理解”,但实际用起来才发现:要装依赖、改路径、调精度、修CUDA版本、

前端防范 XSS(跨站脚本攻击)

目录 一、防范措施 1.layui util  核心转义的特殊字符 示例 2.js-xss.js库 安装 1. Node.js 环境(npm/yarn) 2. 浏览器环境 核心 API 基础使用 1. 基础过滤(默认规则) 2. 自定义过滤规则 (1)允许特定标签 (2)允许特定属性 (3)自定义标签处理 (4)自定义属性处理 (5)转义特定字符 常见场景示例 1. 过滤用户输入的评论内容 2. 允许特定富文本标签(如富文本编辑器内容) 注意事项 更多配置 XSS(跨站脚本攻击)是一种常见的网络攻击手段,它允许攻击者将恶意脚本注入到其他用户的浏览器中。

详细教程:如何从前端查看调用接口、传参及返回结果(附带图片案例)

详细教程:如何从前端查看调用接口、传参及返回结果(附带图片案例)

目录 1. 打开浏览器开发者工具 2. 使用 Network 面板 3. 查看具体的API请求 a. Headers b. Payload c. Response d. Preview e. Timing 4. 实际操作步骤 5. 常见问题及解决方法 a. 无法看到API请求 b. 请求失败 c. 跨域问题(CORS) 作为一名后端工程师,理解前端如何调用接口、传递参数以及接收返回值是非常重要的。下面将详细介绍如何通过浏览器开发者工具(F12)查看和分析这些信息,并附带图片案例帮助你更好地理解。 1. 打开浏览器开发者工具 按下 F12 或右键点击页面选择“检查”可以打开浏览器的开发者工具。常用的浏览器如Chrome、Firefox等都内置了开发者工具。下面是我选择我的一篇文章,打开开发者工具进行演示。 2. 使用

Cursor+Codex隐藏技巧:用截图秒修前端Bug的保姆级教程(React/Chakra UI案例)

Cursor+Codex隐藏技巧:用截图秒修前端Bug的保姆级教程(React/Chakra UI案例) 前端开发中最令人头疼的莫过于那些难以定位的UI问题——元素错位、样式冲突、响应式失效...传统调试方式往往需要反复修改代码、刷新页面、检查元素。现在,通过Cursor编辑器集成的Codex功能,你可以直接用截图交互快速定位和修复这些问题。本文将带你从零开始,掌握这套革命性的调试工作流。 1. 环境准备与基础配置 在开始之前,确保你已经具备以下环境: * Cursor编辑器最新版(v2.5+) * Node.js 18.x及以上版本 * React 18项目(本文以Chakra UI 2.x为例) 首先在Cursor中安装Codex插件: 1. 点击左侧扩展图标 2. 搜索"Codex"并安装 3. 登录你的OpenAI账户(需要ChatGPT Plus订阅) 关键配置项: // 在项目根目录创建.