Obsidian 看板 + Copilot:项目管理与每日总结的完美闭环

Obsidian 看板 + Copilot:项目管理与每日总结的完美闭环

在多项目并行的职场节奏中,项目管理是每个人的必修课。我曾深陷“工具选择困难症”,在滴答清单、Notion 等工具间反复横跳。虽然滴答清单足够优秀,但它始终无法与我的个人知识库深度联动,更难以调用 AI 能力来二次加工我的工作轨迹。

今天,我想分享一套基于 Obsidian 看板 + Copilot 的全自动化项目管理工作流。

工作流示意图

核心思路

All in One 的自动化闭环这套工作流的核心在于利用 Obsidian 的“万物皆 Markdown”特性。看板文件本质上是 Markdown 列表,通过插件自动记录的时间戳,我们可以让 Copilot 扮演“私人秘书”,瞬间完成从“任务执行”到“复盘总结”。

必备插件

在 Obsidian 插件市场安装以下三个插件:

  • Kanban:提供直观的看板视图。
  • Tasks:自动为完成的任务打上时间戳。
  • Copilot:调用 AI 能力进行分析总结。

具体步骤

1. 搭建可视化看板

安装 Kanban 插件后,你可以像使用 Trello 或滴答清单一样,创建项目组和任务清单。它支持双向链接,能完美融入你的 Obsidian 知识网络。

看板界面
2. Tasks

在 Tasks 插件设置中,开启“完成时添加日期”功能。这样当你勾选任务时,系统会自动在后台生成类似 ✅ 2026-01-19 的标记。

Tasks 设置

这些时间戳就是 AI 识别你“今日工作量”的唯一凭证。

3. AI 自动生成每日总结

通过 Copilot 插件,配合精心设计的提示词(Prompt),AI 会自动扫描看板,过滤掉杂讯,只提取你今天完成的成果。

我的提示词:

作为我的看板分析助手,分析我提供的 Obsidian 看板内容。

最终效果

每天下班前,只需简单操作,Copilot 就会生成一段干净的纯文本。我直接将其粘贴到 flomo 中,整个过程不到 10 秒。

最终效果图

这种从项目管理自动复盘的闭环,不仅节约了大量手动整理的时间,更让我能专注于任务本身,而非工具的操作。

延伸阅读

更多 Obsidian 相关内容请看往期文章:

Obsidian Copilot:打造你的专属 AI 笔记助手

Obsidian与Anki:高效管理个性化学习卡组

obsidian projects 插件 实现项目管理

obsidian  excalidraw 绘制思维导图

Tips

如果这篇分享对你有启发,欢迎点赞、收藏、转发

微信公众号:环境猫er

ZEEKLOG:细节处有神明

个人博客:https://maoyu92.github.io/

Read more

Qwen vs Stable Diffusion:儿童风格图片生成部署对比评测

Qwen vs Stable Diffusion:儿童风格图片生成部署对比评测 1. 为什么儿童向图片生成需要专门优化? 给小朋友看的图片,不是随便画得可爱就行。它得安全、温和、色彩明亮、造型圆润,不能有尖锐线条、复杂背景或任何可能引发不安的元素。很多通用模型生成的动物图,要么太写实吓人,要么细节混乱——比如长了三只眼睛的兔子、背景里突然冒出的模糊人影,或者颜色阴沉的森林场景。这些在成人内容里可能只是小瑕疵,在儿童场景里却是硬性红线。 Qwen_Image_Cute_Animal_For_Kids 这个镜像,不是简单套了个“儿童”标签。它背后是通义千问多模态能力的定向蒸馏与风格对齐:训练数据全部来自经过人工筛选的低龄向插画资源库,提示词模板固化为“soft lighting, rounded shapes, pastel colors, friendly expression, no text, no complex background”,连采样步数和CFG值都预设为对萌系特征最友好的区间。

安卓端 AI 绘画新突破:local-dream 项目让 Stable Diffusion 在手机端高效运行,骁龙 NPU 加速加持

安卓端AI绘画新突破:local-dream项目让Stable Diffusion在手机端高效运行,骁龙NPU加速加持 在AI绘画技术飞速发展的当下,Stable Diffusion作为主流模型,凭借出色的图像生成能力备受青睐。然而,其对硬件性能的较高要求,使得多数用户只能在电脑端体验。不过,随着“local-dream”项目的出现,这一局面被彻底打破。该项目专注于让安卓设备流畅运行Stable Diffusion模型,不仅支持高通骁龙NPU加速,还兼容CPU/GPU推理,为移动设备AI绘画开辟了全新路径。 项目核心目标与基础信息 “local-dream”项目的核心目标清晰明确,就是打破硬件限制,让安卓用户无需依赖高性能电脑,在手机或平板上就能轻松体验Stable Diffusion模型的强大图像生成功能。无论是日常创作、创意设计,还是简单的图像生成需求,用户都能随时随地通过安卓设备完成。 对于想要了解和使用该项目的用户,关键信息必不可少。项目的GitHub地址为https://github.com/xororz/local-dream,用户可以在这里获取项目的源代码、详细

LLaMAFactory、ModelScope 大模型微调实战(下)

LLaMAFactory、ModelScope 大模型微调实战(下)

一、前言 上次简单介绍了下 LLaMAFactory、ModelScope的微调,今天再来总结下如何部署已经微调好的大模型。 直通车→→→ https://blog.ZEEKLOG.net/tadexinnian/article/details/159154443 本次演示基于魔搭社区(https://www.modelscope.cn/my/mynotebook) 二、将模型转换为gguf 2.1 克隆llama.cpp 并安装环境依赖 -- 进入根目录 cd /mnt/workspace -- 需要用 llama.cpp 仓库的 convert_hf_to_gguf.py 脚本来转换 git clone https://github.com/

【微科普】AIGC:从技术原理到开发落地的全解析

目录 一、AIGC是什么?核心定义与本质 二、AIGC的技术演进之路:从机械模仿到智能创造 1. 早期萌芽阶段(20世纪50年代-90年代中期):规则驱动的初步探索 2. 沉淀积累阶段(20世纪90年代中期-21世纪10年代中期):深度学习的技术奠基 3. 快速发展阶段(21世纪10年代中期至今):大模型驱动的爆发式增长 三、AIGC的核心技术支撑:大模型与三大关键技术 1. 核心载体:大模型的“涌现能力” 2. 三大关键技术支撑 四、AIGC的典型应用场景:从B端到C端的全行业渗透 1. 内容创作领域:效率与创意的双重提升 2. 技术开发领域:开发者的“智能助手” 3. 垂直行业领域:定制化解决方案落地 五、开发者视角:AIGC的开发落地要点 1. 提示词工程(Prompt Engineering):高效驱动模型的关键 2.