Obsidian+Claude Code打造本地AI知识库

Claudian + Obsidian Skills

1. 核心组件

  • Claudian: Obsidian 第三方插件(暂未上架官方市场),适配 Claude Code。
  • Obsidian Skills: 由 Obsidian CEO (Kepano) 发布的 Skill 包,赋予 AI 处理 Canvas、Markdown 及数据库的能力。

2. 环境部署流程

2.1 安装 Claudian 插件 (手动旁加载)

  1. 获取文件: 访问 GitHub 仓库 claudian,下载以下三个核心文件:
    • main.js
    • manifest.json
    • styles.css
  2. 放置插件:
    • 进入 Obsidian 仓库根目录。
    • 路径导航: .obsidian -> plugins
    • 新建文件夹命名为 claudian
    • 将上述三个文件放入该文件夹。
  3. 启用: 重启 Obsidian,在“第三方插件”中开启 Claudian。

2.2 配置模型参数

  1. 打开 Claudian 设置页。
  2. 基础设置: 设置 User Name (如 Jason)。
  3. 自定义AI模型: 使用智谱GLM或DeepSeek来替换Claude模型。
ANTHROPIC_BASE_URL=https://open.bigmodel.cn/api/anthropic ANTHROPIC_API_KEY=你的智谱api key ANTHROPIC_DEFAULT_OPUS_MODEL=GLM-5.0 
我今天试了一下新发布的glm5,竟然把我代码里藏了好多天的bug改掉了,感觉还是挺厉害的。
  1. 连通性验证:
    • Ctrl/Cmd + P 调出命令面板 -> 输入 claudian -> 选择 Open chat view
    • 发送“你好”,若回复正常则配置成功。

2.3 部署 Obsidian Skills

  1. 下载: 访问 GitHub 仓库 kepano/obsidian-skills,下载 ZIP 包并解压。
  2. 安装:
    • 复制解压后的 skills 文件夹。
    • 进入 Obsidian 仓库根目录。
    • 进入或新建 .claude 隐藏文件夹。
    • 粘贴 skills 文件夹 (最终路径: [Vault Root]/.claude/skills/)。
  3. 验证: 在 Claudian 对话框输入 /skills,应显示以下三个 Skill:
    • obsidian-markdown: 处理专有 Markdown 语法。
    • json-canvas: 生成/编辑无限画布。
    • obsidian-bases: 数据库管理。
这里其实就跟添加skills的思路是一样的,只是取决于你想要只装在obsidian里面还是全局skills

3. 实战应用与技巧

3.1 典型用例:生成知识图谱

  • 指令: “使用无限画布 canvas 画出地中海饮食的知识结构图,并保存到根目录。”
  • 流程: AI 自动调用 json-canvas skill -> 分析逻辑 -> 在根目录直接生成 .canvas 文件。

3.2 优化

由于 Skill 定义为英文,中文指令可能导致匹配偏差,建议方案:

  • 显式指令: 在 Prompt 中明确指定工具名 (如“请使用 json-canvas skill…”)。
  • 系统提示词 (System Prompt): 在插件设置中添加规则 —— “收到指令后优先思考并匹配最合适的 Skill”。

4. 为什么obsidian不做agent

  • 官方态度 (Stephan Ango/Kepano):
    • 发布渠道: 选择在个人 GitHub 账号而非 Obsidian 官方账号发布,体现了 “非官方强制” 的定位。
    • 核心哲学: 知行合一。坚持 Local-firstPrivacy-first,不构建封闭的官方 AI 环境,也不参与 AI 军备竞赛。
  • 差异化优势:
    • 不同于 Notion 的云端封闭生态。
    • Obsidian 文件完全本地化,鼓励用户基于隐私安全,“手搓”适合自己的 AI Agent。

Read more

渔业养殖管理:GLM-4.6V-Flash-WEB估算鱼群数量

渔业养殖管理:GLM-4.6V-Flash-WEB估算鱼群数量 在现代水产养殖日益规模化、集约化的背景下,如何实时掌握鱼群动态成为管理者面临的核心挑战。传统依赖人工巡检的方式不仅耗时费力,还容易因主观判断造成计数偏差。尤其是在能见度低、水流扰动频繁的水下环境中,准确评估鱼群密度和分布几乎成了一项“不可能完成的任务”。 然而,随着多模态人工智能技术的突破,这一难题正迎来转机。智谱AI推出的 GLM-4.6V-Flash-WEB 模型,凭借其轻量化架构与强大的图文理解能力,为智能渔业提供了一种全新的解决方案——无需微调、无需大量标注数据,仅通过自然语言提问即可实现对水下图像中鱼群数量的快速估算。 这不仅是技术上的跃迁,更意味着农业AI正在从“黑箱模型”走向“可对话系统”。养殖户不再需要懂代码或算法,只需上传一张图片并问一句:“图里有多少条鱼?”就能获得稳定可靠的答案。 多模态模型如何改变传统视觉任务? 过去,要构建一个鱼群计数系统,通常需要走完一整套复杂的流程:采集数千张带标注的图像 → 训练YOLO或Mask R-CNN等目标检测模型 → 部署推理服务 → 持续优化误检漏检问

新手必看!Gemma-3-12B-IT WebUI 保姆级教程:从部署到对话全流程

新手必看!Gemma-3-12B-IT WebUI 保姆级教程:从部署到对话全流程 你是不是也对大语言模型充满好奇,想亲手体验一下和AI对话的感觉,但又觉得技术门槛太高,不知道从何下手?别担心,今天这篇教程就是为你准备的。 想象一下,你有一个随时待命的私人助手,能帮你写代码、解答问题、创作文案,甚至陪你聊天。现在,这个助手就摆在眼前——Google最新发布的Gemma-3-12B-IT模型,而且我们已经为你准备好了开箱即用的WebUI界面。 这篇文章将带你从零开始,一步步完成Gemma-3-12B-IT WebUI的部署和使用。不需要你懂复杂的命令行,不需要你配置繁琐的环境,只需要跟着我的步骤走,10分钟内你就能开始和AI对话了。 1. 认识你的新助手:Gemma-3-12B-IT 在开始动手之前,我们先花几分钟了解一下你要部署的这个“助手”到底有什么本事。 1.1 什么是Gemma-3? Gemma-3是Google在2026年发布的一系列轻量级开源语言模型。你可能听说过ChatGPT、Claude这些大模型,但它们的参数动辄上千亿,对普通用户来说部署成本太高。而Ge

前端判断不等于 undefined 不等于 null 的方法

前端判断不等于 undefined 不等于 null 的方法

前端判断不等于 undefined 不等于 null 的方法 在前端开发(JavaScript/TypeScript)中,判断一个变量既不等于 undefined 也不等于 null,通常被称为判断“空值”或“有效存在”。 以下是几种常用且推荐的方法,你可以根据场景选择: 1. 最常用:宽松相等法(推荐) 这是最简洁、最符合语言习惯的写法。利用 == null 的特性,它能同时匹配 null 和 undefined。 if(value !=null){// 代码逻辑// 进入这里说明 value 既不是 null,也不是 undefined// value 可以是 0, false, '', [] 等任何其他值} * 原理:

前端部署:从开发到生产的最后一公里

前端部署:从开发到生产的最后一公里 毒舌时刻 前端部署?这不是运维的事吗? "我只负责写代码,部署交给运维"——结果部署失败,互相甩锅, "我直接把文件上传到服务器"——结果更新不及时,缓存问题频发, "我用FTP上传,多简单"——结果文件传丢,网站崩溃。 醒醒吧,前端部署是前端开发的重要环节,不是别人的事! 为什么你需要这个? * 快速上线:自动化部署,减少人工操作 * 环境一致性:确保开发、测试、生产环境一致 * 回滚能力:出现问题时可以快速回滚 * 监控和日志:实时监控网站状态和错误 反面教材 # 反面教材:手动部署 # 1. 本地构建 npm run build # 2. 手动上传文件 ftp ftp://example.