本地文件深度交互新玩法:Obsidian Copilot的深度开发

本地文件深度交互新玩法:Obsidian Copilot的深度开发

前言

当 “本地知识库管理” 撞上 “AI 智能分析”,会擦出怎样的火花?试想一下:你的 Obsidian 里存着多年积累的笔记、文档,却只能手动翻阅检索;而现在,一个插件 + 蓝耘 API,就能让这些 “静态文字” 瞬间 “活” 起来 —— 自动总结核心内容、智能回答专业疑问,甚至挖掘隐藏关联!今天,就带大家拆解 Obsidian 联动蓝耘 API 的全新玩法,看看如何让本地文件从 “信息仓库” 变身 “智能助手” 。

蓝耘API KEY的创建

先进行API的创建
先点击蓝耘进行一个正常的注册流程

image.png


进入到主页之后,我们点击上方的MaaS平台

image.png


进入到平台后我们可以看到很多的大模型

image.png


不仅仅是文本生成、音频理解、视频理解还是视频生成,都有对应的大模型
每个模型都有很详细的介绍以及价格示例,用过api调用的都可以看到这个价格还是比较贴近平民的

image.png


并且可以进行在线体验的,这里是先进行思考的,然后再给出结果的,算上思考的时间,给出结果只花了几秒钟,效率还是很不错的

image.png


并且这里还有一个可视化的界面,观察你的tokens消耗数量

image.png


仔细发现还有大额的token,也是很香的,这就是我为什么选择蓝耘的原因

image.png


废话不多说,我们直接来到API KEY管理,点击创创建API KEY。创建好了之后我们直接点击复制就ok 了
格式如下:sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

image.png

进行obsidian Copilot的配置

这里的obsidian你如果没有下载的话可以私信我哦,我可以发给你的
进入到obsidian的主页,点击左下角的齿轮进入到设置中

image.png


来到第三方插件中,可以看到这里有一个社区插件市场,我们直接点击预览按钮

image.png


在搜索框中输入Copilot
选择第一个

image.png


然后我们可以看到这个插件相关的信息,下面都是一些展示样例

image.png


我们这里直接点击安装操作
等待安装

image.png


完成安装

image.png


点击启用

image.png


这里右上角报提示了

image.png


我们来到第三方插件这里,可以看到我们这里可以进行api的设置

image.png


我们来到Model

image.png

往下翻找到Add Custom Model,并进行点击操作,添加对话模型

image.png


进入到添加模型的界面是这样的

image.png


这里们将信息进行写入,写入之后我们点击右下角的Verify进行测试下是否能链接成功,如果链接成功的话是会在右上角反馈successful的,如下:

image.png


可以参考下我这里的数据

Model Nmae:/maas/qwen/Qwen3-235B-A22B Provider:OpenAI Format Base URL:https://maas-api.lanyun.net/v1 API KEY:你得去蓝耘MASS平台进行创建 

测试成功了之后,我们直接点击这个Add Model进行模型的添加操作
然后这里我们就可以看到我们刚刚添加的蓝耘api模型

image.png

这里我在配置的时候一直报错,得亏蓝耘的工作人员反馈速度快,不然我一直处于报错现象

image.png

添加好了模型之后,我们这里是可以进行参数调节的,具体如何调节看你们的喜好

image.png


上面我们添加的是对话模型,下面的是嵌入模型,这里我们就不添加了,因为用不到,我们正常的进程对话就行了

image.png


然后我们来到Basic,我们将Default Chat Model默认对话模型设置为我们刚刚添加的

image.png


image.png


其他的参数我们就默认就行了

image.png

文件分析测试

我这里有一个表达式求值的实验报告

image.png


我们在安装了obsidian Copilot这个插件后,左侧有一个对话的按钮

image.png


我们直接进行点击,右侧就能看到我们的对话框了

image.png


我们这里可以根据提示,输入[[就能引用我们的文件了

image.png


输入好问题之后,我们直接点击chat进行问题的询问

image.png


如下是ai的回答

image.png


ai分析了我们的文件,然后对某些小点进行优化操作

image.png


他这里还询问我是否需要提供一个可视化的图,答案生成的速度也是非常的快

image.png


下面他的回答真的惊掉了我的下巴,

image.png


这种流程图的语法我是一点儿都不会,我这里直接就是让蓝耘的ai帮我生成,这看着就很舒服了

下面我还想试下更长的文章他是还能像这样进行优化操作
这里我们展示的是C++的日志系统项目,我们让ai帮我梳理下项目,生成一个流程图,

image.png


这里我们一定要先引用上这个文件,不然是会出现报错的
第一次我们这里出现了报错了,估计是文件太大了哈哈哈

image.png


所以我们这里得设置下我们上传的token数了,来到我们的Copilot Settings面板
将这三个参数进行一个适度的增加操作

image.png


image.png


看来还是不行哈哈哈,因为这个项目的字数到54761了,确实超过了上传的tokens了

image.png


那我们就针对于这个项目创建一个简单的介绍吧,这样应该是没问题了

image.png


效果如下:也是可以清晰的看到我们的项目的落地情况以及同步模式和异步模式

image.png


我们这里可以复制它的回答粘贴到文章中去
效果也是很不错的

image.png


像日常写项目的时候,写项目比较的时候,用到这个工具直接让ai分析我们的项目流程,也是很方便,再加上蓝耘的api快速反应,效率更高了

这里展示下这个生成的流程图吧,我觉得ai做的挺好的

同步模式异步模式是否开始日志记录日志模式选择直接调用输出方法写入前端缓冲区选择输出目标控制台输出文件输出滚动文件输出缓冲区已满?交换前后端缓冲区继续写入后台线程处理批量写入输出目标控制台输出文件输出滚动文件输出

Ai的Prompt的设置

使用 ctrl+P 唤出命令菜单,然后输入 copilot add 就会出现添加命令的选项

image.png
使用 Copilot 进行文本编辑时,有时你会遇到一个问题:Copilot 不知道你正在编辑的是哪篇文章。为了避免这种情况,你可以在自定义的 Prompt 中使用以下变量: - `{activeNote}` 告诉 Copilot,你指定的是「当前窗口下激活的这篇文章」 - `{[[]]}` 告诉 Copilot 你指定的是哪一篇文章 - `{}` 告诉 Copilot 你指定的是光标选中的段落 - `{#tag1,tag2}`告诉 Copilot 你指定的是包含了哪些标签的文章,只要包含其中一个标签就会命中 - `{FolderPage}` 告诉 Copilot 你指定的是哪个文件夹路径下的所有文档 我们也可以在这里给ai设置角色设定 

基于prompt的设定,ai会更加的智能化的
你们也可以设定一个自己的ai机器人哦,针对某些固定的事情进行回答操作

总结

通过 Obsidian 插件搭桥、蓝耘 API 赋能,我们见证了本地文件从 “被动存储” 到 “主动交互” 的蜕变 —— 自动总结、智能问答,每一步都在重塑知识管理的效率边界。不过,这场 “AI + 本地工具” 的融合实验,还有多少潜力待挖掘?那得你自己循着轨迹来试试哦!!!

Read more

Llama 3-8B-Instruct 在昇腾 NPU 上的 SGLang 性能实测

Llama 3-8B-Instruct 在昇腾 NPU 上的 SGLang 性能实测

1.引言 随着大模型在各类智能应用中的广泛应用,高效的推理硬件成为关键瓶颈。昇腾 NPU(Ascend Neural Processing Unit)凭借其高算力、低能耗以及对 SGLang 的深度优化,能够显著提升大模型推理性能。本文以 Llama 3-8B-Instruct 为例,通过在昇腾 NPU 上的实测,展示其在吞吐量、延迟和资源利用方面的优势,并探索可行的优化策略,为开发者在今后的开发中提供可参考的案例。 在本篇文章中我们会使用到Gitcode的Notebook来进行实战,GitCode Notebook 提供了开箱即用的云端开发环境,支持 Python、SGLang 及昇腾 NPU 相关依赖,无需本地复杂环境配置即可直接运行代码和进行实验。对于没有硬件平台的小伙伴来说是非常便利的。 GitCode Notebook使用链接:https://gitcode.com/user/m0_49476241/notebook。 2.实验环境与准备 2.

Trae、Cursor、Copilot、Windsurf对比

我最开始用Copilot(主要是结合IDE开发时进行代码补全,生成单元测试用例),但是后面又接触了Cursor,发现Cursor比Copilot更加实用,Cursor生成的单元测试用例更加全面。         多以网上查了查资料,这里记录分享一下。         这篇文章资料来自于网络,是对部分知识整理,这里只是记录一下,仅供参考 前言         随着AI技术的爆发式发展,AI编程工具正在重塑软件开发流程。GitHub Copilot作为先驱者长期占据市场主导地位,但新一代工具如Cursor、Windsurf和Trae正以颠覆性创新发起挑战。本文基于多维度实测数据,深度解析三款工具的核心竞争力,揭示AI编程工具的格局演变趋势。 工具定位与核心技术 1. Cursor:智能化的全能助手         基于VS Code生态深度改造,Cursor融合GPT-4和Claude 3.5模型,支持自然语言转代码生成、跨文件智能补全和自动文档生成。其核心优势在于: * 上下文感知能力:可同时分析10+个关联文件的语义逻辑 * Agent模

别瞎改了!直接抄DeepSeek这5大降AIGC指令,搭配3款超有效工具,亲测98%暴降至5%!

别瞎改了!直接抄DeepSeek这5大降AIGC指令,搭配3款超有效工具,亲测98%暴降至5%!

毕业季最让人崩溃的瞬间,莫过于信心满满地把DeepSeek辅助写的论文传上去,结果查重报告一片红,AIGC检测率飙到90%以上。 别慌!作为过来人,学姐告诉大家:AI生成的痕迹其实是有解决办法的。 只要你懂得如何指挥DeepSeek自己净化自己,或者用对专业的辅助工具,把AI率降到5%以下真的不是梦。 今天这篇文章,直接上干货。前半部分是5条经过实测的DeepSeek专属降AI指令,后半部分推荐3款确实能把AI率降下来的工具。 建议先收藏,改论文时直接复制使用。 一、【硬核实操】DeepSeek五大深度降AI指令 这部分是核心干货。为了让DeepSeek更好地执行,我将所有复杂的降AI技巧整合成了一段完整、连续的指令。你只需要把论文分段,然后配合下面的指令发送即可,记得要开深度思考和联网搜索哦~ 💡 指令1:针对假大空特征 【原理解析】 AI生成内容最容易被判定为机器痕迹的原因,是大量使用高频、通俗的万能词。根据同义词替换策略,我们需要强制模型调用学术语料库。 📋 复制这段Prompt发送给DeepSeek: 请针对这段文字进行深度学术化重写,重点在于提升词汇的

软件工程的范式演进:深度解构低代码(Low-Code)的技术逻辑与未来图景

软件工程的范式演进:深度解构低代码(Low-Code)的技术逻辑与未来图景

随着企业数字化转型进入深水区,传统交付模式与爆发式业务需求之间的矛盾日益凸显。低代码(Low-Code)作为一种基于高度抽象化的开发范式,正从边缘工具演变为核心生产力。本文将从技术演进史、辩证价值论及全栈化趋势三个维度,深度剖析低代码的本质,并探讨以星图云开发者平台为代表的新一代全场景生产力工具如何重新定义软件工程。 一、溯源与定义:从指令驱动到模型驱动 低代码并非横空出世,其本质是软件工程中“抽象层级”的不断提升。 从早期的机器指令到汇编语言,再到高级程序设计语言(Java, Python等),程序员的操作对象始终在远离底层硬件,向人类逻辑靠近。20世纪80年代,第四代编程语言(4GL)尝试通过声明式语法减少代码量;2014年,Forrester正式定义了“低代码”概念。 现代低代码平台(LCAP)的核心逻辑在于:通过图形化建模(Visual Modeling)替代命令式编码(Imperative Coding)。 它将通用的界面交互、数据存储、业务流程封装为可复用的组件或卡片,开发者通过编排这些逻辑单元,即可实现复杂应用的快速交付。 二、 辩证思考:低代码的“银弹”之