obsidian ai/copilot 插件配置

Obsidian AI 插件安装与 API 配置教程

以下是在 Obsidian 中安装支持 AI 的插件并配置智谱清言、通义千问、DeepSeek、Kimi 以及 GitHub 免费 GPT 接口的详细教程。


安装流程

1. 安装 Obsidian

  1. 下载 Obsidian
    • 访问 Obsidian 官网,下载适用于你的操作系统的版本(Windows、macOS、Linux)。
    • 按照提示完成安装。
  2. 创建或打开 Vault
    • 打开 Obsidian,选择或创建一个新的 Vault(工作空间)用于存储笔记。

2. 安装 AI 插件

  1. 启用社区插件
    • 打开 Obsidian,点击左侧“设置”(齿轮图标)。
    • 进入“社区插件”选项,关闭“安全模式”以启用第三方插件。
  2. 搜索并安装插件
    • 在“社区插件”中点击“浏览”。
    • 搜索copilot。
  3. 验证插件安装

返回 Obsidian 主界面,确认插件已出现在侧边栏或命令面板(Ctrl/Cmd + P)中。

在这里插入图片描述


在这里插入图片描述

点击“安装”,安装完成后点击“启用”。

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

API 配置

以下为每个 API 的配置步骤,确保已获取对应 API Key。

1. 智谱清言 (GLM-4-Flash)

  1. 获取 API Key
  2. 配置插件
    • 打开 Obsidian,进入已安装的 AI 插件设置(如 Text Generator)。
    • 输入以下信息:
      • 模型名称GLM-4-Flash
      • Base URLhttps://open.bigmodel.cn/api/paas/v4
      • API Key:粘贴生成的密钥。
  3. 测试连接
    • 保存设置,运行测试,确认 API 响应正常。

2. 通义千问 (qwen-max)

  1. 获取 API Key
    • 访问 通义千问
    • 登录阿里云账户,进入“模型市场”生成 API Key。
  2. 配置插件
    • 在插件设置中输入:
      • 模型名称qwen-max
      • Base URLhttps://dashscope.aliyuncs.com/compatible-mode/v1
      • API Key:粘贴密钥。
  3. 测试连接
    • 保存后运行测试,确保模型正常响应。

3. DeepSeek 深度求索

  1. 获取 API Key
  2. 配置插件
    • 在插件设置中输入:
      • 模型名称deepseek-chat
      • Base URLhttps://api.deepseek.com
      • API Key:粘贴密钥。
  3. 测试连接
    • 保存设置,测试 API 连接是否成功。

4. Kimi

  1. 获取 API Key
  2. 配置插件
    • 在插件设置中输入:
      • 模型名称moonshot-v1-8k
      • Base URLhttps://api.moonshot.cn/v1
      • API Key:粘贴密钥。
  3. 测试连接
    • 保存设置,运行测试确认连接正常。

5. GitHub 免费 GPT 接口 (gpt-3.5-turbo)

  1. 获取 API Key
  2. 配置插件
    • 在插件设置中输入:
      • 模型名称gpt-3.5-turbo
      • Base URL:根据 GitHub 项目提供的说明,输入 ChatAnywhere 的 Base URL(请确认具体地址)。
      • API Key:粘贴密钥。
  3. 测试连接
    • 保存设置,测试接口是否可用。

常见问题

  1. 插件安装失败怎么办?
    • 确保已关闭“安全模式”,并检查是否科学上网。
    • 尝试手动下载插件并放入 .obsidian/plugins 文件夹。
  2. API 响应超时怎么办?
    • 检查网络环境,或更换 API 服务。

Read more

【Python爬虫实战】轻量级爬虫利器:DrissionPage之SessionPage与WebPage模块详解

【Python爬虫实战】轻量级爬虫利器:DrissionPage之SessionPage与WebPage模块详解

🌈个人主页:易辰君-ZEEKLOG博客 🔥 系列专栏:https://blog.ZEEKLOG.net/2401_86688088/category_12797772.html 目录 前言 一、SessionPage (一)SessionPage 模块的基本功能 (二)基本使用 (三)常用方法 (四)页面元素定位和数据提取 (五)Cookie 和会话管理 (六)SessionPage 的优点和局限性 (七)SessionPage 和 DriverPage 的搭配使用 (八)SessionPage总结 二、WebPage (一)WebPage 的核心功能 (二)WebPage 的基本使用 (三)常用方法 (四)WebPage

深入剖析:按下 F5 后,浏览器前端究竟发生了什么?

深入剖析:按下 F5 后,浏览器前端究竟发生了什么?

文章目录 * 概述 * 一、关键前提:三种导航方式的本质区别 * 二、核心概念:强缓存 vs 协商缓存 * 1. 强缓存(Strong Caching) * 2. 协商缓存(Revalidation Caching) * 三、F5 刷新全景流程图 * 四、F5 刷新的完整生命周期详解 * 阶段一:主文档(HTML)的缓存验证与获取 * 阶段二:HTML 解析与渲染流水线(Critical Rendering Path) * 阶段三:子资源(CSS/JS/IMG)的缓存处理 * 五、对比总结:F5 与其他操作的本质差异 * 六、给前端开发者的实践建议 * 七、结语 概述 在前端开发中,

Flutter 组件 spry 适配鸿蒙 HarmonyOS 实战:轻量化 Web 框架,构建高性能端侧微服务与 Middleware 治理架构

Flutter 组件 spry 适配鸿蒙 HarmonyOS 实战:轻量化 Web 框架,构建高性能端侧微服务与 Middleware 治理架构

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 组件 spry 适配鸿蒙 HarmonyOS 实战:轻量化 Web 框架,构建高性能端侧微服务与 Middleware 治理架构 前言 在鸿蒙(OpenHarmony)生态迈向全场景分布式协同、涉及设备端侧 API 暴露、轻量化资源服务镜像及严苛的跨端 RPC 通信背景下,如何实现一套既能保持极低内存足迹(Footprint)、又能提供类似后端(Node.js/Koa)般丝滑开发体验且具备全异步处理能力的“端侧 Web 基座”,已成为决定应用分布式自治能力与全栈同构效率的关键。在鸿蒙设备这类强调 AOT 极致效能与背景任务严格限制的环境下,如果应用依然采用重量级的 HTTP 服务端,由于由于进程级的上下文切换开销,极易由于由于“算力溢出”导致鸿蒙应用在作为服务端响应时发生明显的电量损耗。 我们需要一种能够解耦路由逻辑、支持

VibeThinker-1.5B-WEBUI使用秘籍:提升推理效率的7个技巧

VibeThinker-1.5B-WEBUI使用秘籍:提升推理效率的7个技巧 1. 背景与核心价值 随着大模型在数学推理和代码生成任务中的广泛应用,如何在控制成本的前提下实现高效推理成为工程实践中的关键挑战。微博开源的 VibeThinker-1.5B 模型以仅15亿参数规模,在数学与编程类任务中展现出超越更大模型的性能表现,为低成本、高效率的AI推理提供了新的可能性。 该模型总训练成本仅为7,800美元,却在AIME24、AIME25等权威数学基准测试中超过DeepSeek R1(参数量超其400倍),同时在LiveCodeBench v6上得分达51.1,优于Magistral Medium。这表明其在竞争性编程与复杂逻辑推理场景中具备显著优势。 本文将围绕 VibeThinker-1.5B-WEBUI 的实际应用,系统介绍7个提升推理效率的关键技巧,帮助开发者最大化利用这一轻量级高性能模型。 2. 理解模型定位与适用边界 2.1 小参数但强推理的设计哲学 VibeThinker-1.5B 属于典型的“小模型、大能力”范式。它并非通用对话模型,而是专注于结构化推理