优质Skills推荐baoyu-skills:让 AI 帮你搞定技术文章配图与排版(二)

优质Skills推荐baoyu-skills:让 AI 帮你搞定技术文章配图与排版(二)

文章目录


1 让 AI 帮你搞定技术文章配图与排版

1.1. 一句话结论

如果你在用 Claude Code、Trae 或者其他支持 MCP/Skill 的 AI 编程工具,baoyu-skills 绝对值得装一个。它不仅仅是一堆工具,更像是把Prompt 工程的最佳实践给包好了,能把“写文章-配图-做 PPT”这套麻烦事变成几行命令。关键是审美在线,出来的图能拿得出手。

在这里插入图片描述

1.2. 背景与痛点

咱们做技术的,写文章常遇到的三个坑:

  1. 配图难:代码写得飞起,但要画个架构图、流程图,或者给文章配个封面,立马抓瞎。找网图怕侵权,自己画又像小学生涂鸦。
  2. 排版累:要把一篇技术干货改成小红书风格、或者做成 PPT 分享,光是调整格式和精简文字就能耗掉半天。
  3. AI 抽卡不稳定:用 Midjourney 或 DALL-E 生图,提示词得调半天,生成的风格还经常不统一,今天赛博朋克,明天就变成了卡通简笔画。
在这里插入图片描述

宝玉(Baoyu)老师开源的这套 Skills,正好解决了这些问题。它把那些让人头大的 Prompt 调试过程都封装成了标准化的参数,你只管调参数,“审美”的事交给它。

在这里插入图片描述


在这里插入图片描述
在这里插入图片描述

1.3. 核心观点

  • Prompt 工程的“配置化”:我觉得这套 Skills 最牛的地方不在于功能多,而是它把视觉风格做成了可选项。比如生成插图,它让你直接选 Layout(布局)和 Style(风格)。这样选出来的结果,比自己瞎写提示词稳定多了。
  • 内容即数据:它直接读取你的 Markdown 文章,自动提取关键信息生成 PPT 或图表,不用你再把内容重新喂一遍。

输入

调用

分析内容

指定参数

调用绘图模型

你的 Markdown 草稿

Claude Code / Trae

baoyu-skills

自动推荐风格 & 布局

强制指定 Style/Layout

生成 Prompt

最终产出

封面图 / 信息图 / PPT / 漫画

在这里插入图片描述

2. 怎么落地:核心能力拆解

2.1. 技能全景图:你手里的武器库

这套 Skills 里工具不少,我整理了个速查表,方便你找:

Skill 名称适用场景核心卖点常用命令示例
baoyu-xhs-images小红书运营、知识卡片风格×布局二维选择,一键出多张图/baoyu-xhs-images post.md --style notion
baoyu-infographic技术原理讲解、流程图20种布局+17种风格,专治各种复杂概念/baoyu-infographic arch.md --layout pyramid
baoyu-cover-image博客/公众号封面5个维度定制(类型/配色/渲染/文字/氛围)/baoyu-cover-image blog.md --quick
baoyu-slide-deck技术分享、汇报自动生成大纲,直接出 PPTX/PDF/baoyu-slide-deck talk.md --style blueprint
baoyu-comic讲故事、寓教于乐知识漫画创作,还能控制分镜/baoyu-comic story.md --art manga
在这里插入图片描述

2.2. 安装与配置

安装很简单,只要你有 Node.js 环境就行。

推荐方式(快速安装):

# 一行命令搞定 npx skills add jimliu/baoyu-skills 

在 Agent 中使用:
如果你在 Trae 或 Claude Code 对话框里,也可以直接跟它说:

“请帮我安装 github.com/JimLiu/baoyu-skills 中的 Skills”

3. 奇葩但很真实的观点

3.1. 提示词工程的终局是“消失”

以前我们总在学“怎么写好 Prompt”,比如“你是一个资深设计师,请用…风格…”。但用过 baoyu-skills 后你会发现,我们其实不需要成为 Prompt 专家
这套 Skills 内部维护了复杂的 Prompt 模板,但给用户的只有 --style notion--layout timeline 这样简单的参数。
说白了: 未来的 AI 工具,界面会越来越像传统的命令行工具(CLI),参数清晰明确,而把那些“模糊的自然语言交互”藏在后面。这也解释了为什么程序员用这套工具会觉得特别顺手——因为它符合我们对“确定性”的追求。

在这里插入图片描述

4. 案例分享:从枯燥文档到小红书爆款

假设你写了一篇关于“AI 时代程序员如何进化”的硬核文章,想发小红书。

4.1. 案例实操

  • 目标:把一篇 2000 字的 Markdown 文章,用 baoyu-xhs-images 转成 4 张小红书风格的配图。
  • 准备
    • 文章路径:./ai-evolution.md
    • 已安装 baoyu-skills
  • 步骤
    1. 打开终端或对话框。
    2. 等待 Agent 分析文章,提取金句和要点。
    3. Agent 会自动调用绘图工具(如 DALL-E 3 或 SVG 生成器)生成图片。
  • 产出
    • 目录里会生成几张图片。
    • 这些图片不只是罗列文字,而是排版精美的知识卡片,一眼就能看进去。

输入命令:

/baoyu-xhs-images ./ai-evolution.md --style notion --layout dense 

这里选了 notion 风格(干净、黑白线条)和 dense 布局(适合干货知识点)。

5. 可复用的 Skill 片段示例

如果你也想写一个类似的 Skill,让 AI 帮你生成特定风格的内容,可以参考下面这个简化版的 Skill 定义。这是从 baoyu-skills 的设计理念中提炼出来的精华。

name: style-generator-lite description: 一个轻量级的风格化内容生成器示例,展示如何封装 Prompt。 input_format:| 内容:{text} 风格:{style} (可选: tech/hand-drawn, 默认: tech)steps:-step: analyze_content description: 分析输入文本,提取 3 个核心关键词和 1 个主旨句。 -step: construct_prompt description:> 根据风格构建绘图 Prompt: - if style == 'tech': use "blueprint style, isometric view, blue and white" - if style == 'hand-drawn': use "pencil sketch on paper, rough lines"-step: generate description: 调用绘图工具生成图片。 output_format:| ![生成的图片](image_url) **关键词**:Keywords

6. 参考文献

Read more

OpenClaw(Clawdbot)插件更新,新增支持在面板一键QQ和飞书机器人

OpenClaw(Clawdbot)插件更新,新增支持在面板一键QQ和飞书机器人

这次,OpenClaw 插件迎来了一次重要更新。 现在,你可以直接在插件中配置 飞书机器人或 QQ 机器人,让 OpenClaw 真正走出 Web 界面,进入你日常使用的消息工具中。 无需额外部署服务,配置完成后即可开始对话。 重要提示:由于官方更改包名,不支持直接升级,如需更新请卸载旧版插件,安装新版OpenClaw插件,已有数据会丢失,请您评估是否需要更新,新安装不受影响。 配置QQ机器人1. 打开QQ开放平台,注册账号,如已注册可直接登陆 点击编辑 IP 白名单,填写服务器 IP 并保存 点击开发管理,获取APPID、AppSecret 创建完成后点击刚刚创建的机器人 填写机器人基础信息 登录后点击机器人,创建机器人 按提示完成登录 8.将获取到的信息填写到插件,并保存启用 添加后即可在群聊中进行对话 在此处添加完成后回到QQ-群管理-添加机器人,在其他页面找到机器人 选择需要使用的群聊 回到QQ机器人平台,

基于视觉语言动作的竞速无人机自主导航RaceVLA深度代码解析

基于视觉语言动作的竞速无人机自主导航RaceVLA深度代码解析

论文链接:https://arxiv.org/pdf/2503.02572 项目主页:https://racevla.github.io/ 代码仓库:https://github.com/SerValera/RaceVLA 0. 简介 RaceVLA项目标志着具身智能在无人机领域的重大突破。这是首次将视觉语言动作(Vision-Language-Action,VLA)模型成功应用于高速竞速无人机的自主导航系统。与传统的基于规划或轨迹生成的方法不同,RaceVLA实现了从视觉感知到飞行控制的端到端学习,能够理解自然语言指令并在动态环境中执行复杂的飞行任务。 该项目的核心创新在于将斯坦福大学开发的OpenVLA模型成功移植并优化到无人机平台上,通过处理第一视角(FPV)视频流和自然语言指令,直接生成包含三个线性速度和偏航角速度的4D控制向量。这种设计使得无人机能够像人类飞行员一样,基于视觉信息和任务理解做出实时的飞行决策,在不熟悉的环境中展现出卓越的导航能力。更令人瞩目的是,RaceVLA在泛化能力方面的表现尤为突出,在动态环境测试中,该系统在运动泛化和语义泛化方面显著优于Ope

CLIP论文阅读

作者:LioneWang 链接:https://zhuanlan.zhihu.com/p/1996842714956841421 来源:知乎 著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。   标题 * Learning transferable visual models from natural language supervision * Clip定义是constrastive language-image pre-training * 无监督的训练范式 通过正类和负类样本的比较,看到正类就拉近,看到负类就拉远 目的 从自然语言的监督信号学习迁移性能好的模型 目的是学一个泛化性能好的特征,从而在各种数据集和任务,不需要训练,直接推理就可以获得好的效果 框架 * 对比学习预训练 * 创建label分类器,用prompt engineering的方式将文本变成句子 * 使用zero-shot进行推理 摘要 * 之前的数据集有固定的类,但是如果推理任务需要一个其他的类,这个类难道要新训练一个模型吗? 该方法可以通过z

FPGA 跨时钟域 CDC 处理:3 种最实用的工程方案

本人多年 FPGA 工程与教学经验,今天跟大家聊一个重点——跨时钟域 CDC,这可是项目里最容易出玄学 bug、最难复现、最难定位的一类问题,新手必踩坑,老手也得谨慎! 还是老规矩,不搞虚的、不扯理论,只给大家工程里真正在用、稳定可靠、可直接复制上板的3种方案,不管是自学、做项目,还是面试,都能用得上、能拿分。 1. 什么是跨时钟域 CDC? 不用记复杂定义,简单说清楚3个关键点,就完全够用: * 核心场景:信号从一个时钟域(比如clk_a)传到另一个时钟域(比如clk_b); * 触发条件:两个时钟的频率不同,或者相位无关(没有固定的时间关系); * 直接后果:如果不做处理,直接打拍会出现亚稳态,进而导致数据错误,严重的还会让整个系统死机。 划重点:只要是多时钟系统,就必须做 CDC 处理,