优质Skills推荐baoyu-skills:让 AI 帮你搞定技术文章配图与排版(二)

优质Skills推荐baoyu-skills:让 AI 帮你搞定技术文章配图与排版(二)

文章目录


1 让 AI 帮你搞定技术文章配图与排版

1.1. 一句话结论

如果你在用 Claude Code、Trae 或者其他支持 MCP/Skill 的 AI 编程工具,baoyu-skills 绝对值得装一个。它不仅仅是一堆工具,更像是把Prompt 工程的最佳实践给包好了,能把“写文章-配图-做 PPT”这套麻烦事变成几行命令。关键是审美在线,出来的图能拿得出手。

在这里插入图片描述

1.2. 背景与痛点

咱们做技术的,写文章常遇到的三个坑:

  1. 配图难:代码写得飞起,但要画个架构图、流程图,或者给文章配个封面,立马抓瞎。找网图怕侵权,自己画又像小学生涂鸦。
  2. 排版累:要把一篇技术干货改成小红书风格、或者做成 PPT 分享,光是调整格式和精简文字就能耗掉半天。
  3. AI 抽卡不稳定:用 Midjourney 或 DALL-E 生图,提示词得调半天,生成的风格还经常不统一,今天赛博朋克,明天就变成了卡通简笔画。
在这里插入图片描述

宝玉(Baoyu)老师开源的这套 Skills,正好解决了这些问题。它把那些让人头大的 Prompt 调试过程都封装成了标准化的参数,你只管调参数,“审美”的事交给它。

在这里插入图片描述


在这里插入图片描述
在这里插入图片描述

1.3. 核心观点

  • Prompt 工程的“配置化”:我觉得这套 Skills 最牛的地方不在于功能多,而是它把视觉风格做成了可选项。比如生成插图,它让你直接选 Layout(布局)和 Style(风格)。这样选出来的结果,比自己瞎写提示词稳定多了。
  • 内容即数据:它直接读取你的 Markdown 文章,自动提取关键信息生成 PPT 或图表,不用你再把内容重新喂一遍。

输入

调用

分析内容

指定参数

调用绘图模型

你的 Markdown 草稿

Claude Code / Trae

baoyu-skills

自动推荐风格 & 布局

强制指定 Style/Layout

生成 Prompt

最终产出

封面图 / 信息图 / PPT / 漫画

在这里插入图片描述

2. 怎么落地:核心能力拆解

2.1. 技能全景图:你手里的武器库

这套 Skills 里工具不少,我整理了个速查表,方便你找:

Skill 名称适用场景核心卖点常用命令示例
baoyu-xhs-images小红书运营、知识卡片风格×布局二维选择,一键出多张图/baoyu-xhs-images post.md --style notion
baoyu-infographic技术原理讲解、流程图20种布局+17种风格,专治各种复杂概念/baoyu-infographic arch.md --layout pyramid
baoyu-cover-image博客/公众号封面5个维度定制(类型/配色/渲染/文字/氛围)/baoyu-cover-image blog.md --quick
baoyu-slide-deck技术分享、汇报自动生成大纲,直接出 PPTX/PDF/baoyu-slide-deck talk.md --style blueprint
baoyu-comic讲故事、寓教于乐知识漫画创作,还能控制分镜/baoyu-comic story.md --art manga
在这里插入图片描述

2.2. 安装与配置

安装很简单,只要你有 Node.js 环境就行。

推荐方式(快速安装):

# 一行命令搞定 npx skills add jimliu/baoyu-skills 

在 Agent 中使用:
如果你在 Trae 或 Claude Code 对话框里,也可以直接跟它说:

“请帮我安装 github.com/JimLiu/baoyu-skills 中的 Skills”

3. 奇葩但很真实的观点

3.1. 提示词工程的终局是“消失”

以前我们总在学“怎么写好 Prompt”,比如“你是一个资深设计师,请用…风格…”。但用过 baoyu-skills 后你会发现,我们其实不需要成为 Prompt 专家
这套 Skills 内部维护了复杂的 Prompt 模板,但给用户的只有 --style notion--layout timeline 这样简单的参数。
说白了: 未来的 AI 工具,界面会越来越像传统的命令行工具(CLI),参数清晰明确,而把那些“模糊的自然语言交互”藏在后面。这也解释了为什么程序员用这套工具会觉得特别顺手——因为它符合我们对“确定性”的追求。

在这里插入图片描述

4. 案例分享:从枯燥文档到小红书爆款

假设你写了一篇关于“AI 时代程序员如何进化”的硬核文章,想发小红书。

4.1. 案例实操

  • 目标:把一篇 2000 字的 Markdown 文章,用 baoyu-xhs-images 转成 4 张小红书风格的配图。
  • 准备
    • 文章路径:./ai-evolution.md
    • 已安装 baoyu-skills
  • 步骤
    1. 打开终端或对话框。
    2. 等待 Agent 分析文章,提取金句和要点。
    3. Agent 会自动调用绘图工具(如 DALL-E 3 或 SVG 生成器)生成图片。
  • 产出
    • 目录里会生成几张图片。
    • 这些图片不只是罗列文字,而是排版精美的知识卡片,一眼就能看进去。

输入命令:

/baoyu-xhs-images ./ai-evolution.md --style notion --layout dense 

这里选了 notion 风格(干净、黑白线条)和 dense 布局(适合干货知识点)。

5. 可复用的 Skill 片段示例

如果你也想写一个类似的 Skill,让 AI 帮你生成特定风格的内容,可以参考下面这个简化版的 Skill 定义。这是从 baoyu-skills 的设计理念中提炼出来的精华。

name: style-generator-lite description: 一个轻量级的风格化内容生成器示例,展示如何封装 Prompt。 input_format:| 内容:{text} 风格:{style} (可选: tech/hand-drawn, 默认: tech)steps:-step: analyze_content description: 分析输入文本,提取 3 个核心关键词和 1 个主旨句。 -step: construct_prompt description:> 根据风格构建绘图 Prompt: - if style == 'tech': use "blueprint style, isometric view, blue and white" - if style == 'hand-drawn': use "pencil sketch on paper, rough lines"-step: generate description: 调用绘图工具生成图片。 output_format:| ![生成的图片](image_url) **关键词**:Keywords

6. 参考文献

Read more

在NVIDIA Jetson上实现端到端机器人学习:HuggingFace LeRobot实战指南

在NVIDIA Jetson上实现端到端机器人学习:HuggingFace LeRobot实战指南

在NVIDIA Jetson上实现端到端机器人学习:HuggingFace LeRobot实战指南 引言 让我们一起在NVIDIA Jetson上运行HuggingFace的LeRobot,训练基于Transformer的动作扩散策略和ACT策略。这些模型从视觉输入和先前的轨迹(通常在遥操作或模拟中收集)中学习预测特定任务的动作。 本教程将详细介绍如何在Jetson设备上为真实世界的机器人(以低成本的Koch v1.1为例)设置完整的端到端学习流程,从硬件配置、数据收集到模型训练和评估。 环境与硬件要求 所需设备 1. Jetson设备: * Jetson AGX Orin (64GB) * Jetson AGX Orin (32GB) * Jetson Orin NX (16GB) * Jetson Orin Nano (8GB) ⚠️ (内存可能受限) 2. JetPack版本: * JetPack 6 GA (L4T r36.3) * JetPack 6.1

基于深度学习图像分割的无人机洪水灾害图像分割检测与水量估算 洪水分割数据集 图像分割算法

基于深度学习图像分割的无人机洪水灾害图像分割检测与水量估算 洪水分割数据集 图像分割算法

🌊 洪水检测与水量估算🌊 洪水检测与水量估算 🌊 洪水检测与水域估算 该项目专注于利用深度学习技术,从卫星或航空图像中检测受洪水影响的区域,并估算水域覆盖范围。它整合了多种卷积神经网络架构,包括LeNet、ResNet、VGG和U-Net,以执行图像分割和分类任务。该项目专注于利用深度学习技术,从卫星或航空图像中检测受洪水影响的区域,并估算水域覆盖范围。它整合了多种卷积神经网络架构,包括LeNet、ResNet、VGG和U-Net,以执行图像分割和分类任务。该项目专注于利用深度学习技术,从卫星或航空图像中检测受洪水影响的区域,并估算水域覆盖范围。它整合了多种卷积神经网络架构,包括LeNet、ResNet、VGG和U-Net,以执行图像分割和分类任务。 🔍 主要特点🔍 主要特点 🔍 主要特点 * 使用U-Net进行图像分割,以识别水体和洪水淹没区域。使用U-Net进行图像分割,以识别水体和洪水淹没区域。使用U-Net进行图像分割,以识别水体和洪水淹没区域。 * LeNet、ResNet和VGG模型的比较,以评估洪水检测的性能。LeNet、ResNet和VGG模型的

Vivado IP核实现LVDS高速通信:从零实现方案

从零构建LVDS高速通信链路:基于Vivado IP核的实战指南 你有没有遇到过这样的场景? 项目急着要验证一个高速ADC的数据采集能力,传感器通过LVDS接口输出1.2 Gbps的原始数据流,而你的FPGA板子却频频丢帧、采样错乱。示波器上看眼图闭合严重,ILA抓出来的数据跳变无序——问题到底出在哪儿? 是PCB走线不匹配?时钟相位没对齐?还是FPGA内部采样逻辑写错了? 别急。今天我们就来 手把手实现一套稳定可靠的LVDS高速通信系统 ,全程基于Xilinx Vivado官方IP核和SelectIO原语,不依赖任何第三方模块或黑盒代码。整个过程不需要你精通SerDes硬核原理,也不用啃IBIS模型,但能让你真正理解“为什么这样接就通了”。 一、为什么选LVDS?它真的适合我的项目吗? 先说结论:如果你的应用涉及 中高带宽(>100 Mbps)、长距离传输(>15 cm)、抗干扰要求高 ,那么LVDS几乎是绕不开的选择。 它强在哪? 特性 对比传统CMOS 工作电压 ~350mV差分摆幅 功耗 恒流驱动,功耗低 EMI辐射

NIC400生成Flow全解析(八)Micro Architechture

当所有配置完成后,就可以生成Micro Architechture了。在Micro Architechture中也会进行一系列配置。比如微架构、timing closure、buffering等配置。 生成Micro Architechture的方法如下: 生成时需要解决掉所有报错问题后,即可打开Micro Architechture。打开方式如下: 大致界面如下: 其中主要包含了如下元素: * Micro Architechture窗口 * Parameter/Timing Closure/Buffering窗口 * Overlays窗口 1.Micro Architechture窗口 该窗口主要是设定需要的互联微架构,AMBA Designer生成NIC-400时需要手动定义,Socrates生成NIC-400时会根据工具内部算法生成一个微架构。生成后也可以根据自己的需求进行调整。图中的各种标志如下所示: Micro Architechture的左边有一排按键,11个按键的含义从上到下依次为: * Zoom in:视图放大 * Zoom o