我让openclaw做了一个 B 站弹幕分析SKILL:自动抓取 + 词云 + 情感分析 + 舆情报告(开源)

我让openclaw做了一个 B 站弹幕分析SKILL:自动抓取 + 词云 + 情感分析 + 舆情报告(开源)

大家好,最近我让openclaw把我自己在内容运营里常用的一套“弹幕分析流程”做成了一个可复用的小项目:

👉 bilibili-danmaku
GitHub:https://github.com/Smartloe/bilibili-danmaku

核心目标很直接:

  • 给我一个 B 站视频链接
  • 自动抓取弹幕
  • 自动做分词清洗
  • 自动输出词云图 + 情感分析 + 舆情报告

适合做内容复盘、热点观察、用户反馈提炼。


一、这个项目解决了什么问题?

日常做视频复盘时,常见痛点是:

  1. 弹幕采集麻烦:每次手动导出/复制,效率很低。
  2. 词云质量不稳定:不清洗会被“哈哈哈/666/这边那边”污染。
  3. 舆情判断缺标准:没有统一口径,沟通时容易“拍脑袋”。

这个项目把整条链路打通了:

抓取 → 清洗 → 关键词 → 词云 → 情感 → 报告

二、功能特性

  • ✅ 自动解析 BVID -> CID,抓取弹幕 XML
  • ✅ 导出结构化数据:CSV / JSON / TXT
  • jieba 分词 + 干扰词清洗
  • SnowNLP 情感分析(正/中/负分布)
  • wordcloud 生成高密度中文词云 PNG
  • ✅ 自动生成 Markdown 舆情报告

三、项目结构

bilibili-danmaku/ ├── SKILL.md ├── README.md ├── README.en.md ├── requirements.txt ├── scripts/ │ ├── ensure_env.sh │ ├── fetch_danmaku.py │ ├── fetch.sh │ ├── analyze_danmaku.py │ └── analyze.sh ├── references/ │ ├── methodology.md │ └── stopwords.default.txt └── output/ 

四、在 OpenClaw 里一键使用(推荐)

如果你本身就在用 OpenClaw,最省事的方式是直接从 ClawHub 安装:

clawhub install bilibili-danmaku 

安装后开启一个新的 OpenClaw 会话,直接给视频链接即可调用技能完成:

  • 弹幕抓取
  • 词云生成
  • 情感分析
  • 舆情报告输出

五、源码方式(3 步)

1)安装依赖

cd bilibili-danmaku bash scripts/ensure_env.sh 

2)抓取弹幕

python3 scripts/fetch_danmaku.py \--url"https://www.bilibili.com/video/BV17JfuBqEqg"\--outdir"./output"

支持短链:

python3 scripts/fetch_danmaku.py --url"https://b23.tv/gO0nMGs"--outdir"./output"

3)分析并出报告

bash scripts/analyze.sh \"./output/<xxx>_danmaku.csv"\"./output/<xxx>_meta.json"\"./output"\"task_name"

输出文件:

  • task_name_top_words.json
  • task_name_sentiment.json
  • task_name_wordcloud.png
  • task_name_report.md

六、为什么这版词云更“干净”?

我在分词后做了数据清洗,重点是四件事:

  1. 停用词过滤:默认词表 + 自定义词表
  2. 噪声词过滤:比如 哈哈哈 / 233 / 666 / 纯符号
  3. token 规范化:别名合并、重复字符压缩
  4. 高文档频率短词剔除:去掉“出现太广但信息量低”的词

你还可以临时追加干扰词:

./.venv/bin/python scripts/analyze_danmaku.py \--csv"./output/<xxx>_danmaku.csv"\--meta"./output/<xxx>_meta.json"\--outdir"./output"\--name"task_clean"\ --extra-stopwords "妈妈,亲戚,那边,这边"

七、情感分析怎么做?

使用 SnowNLP,每条弹幕都会得到一个 0~1 的情绪分:

  • >= 0.60:positive
  • <= 0.40:negative
  • 中间:neutral

最后汇总成:

  • 正向/中性/负向占比
  • 平均情绪分
  • 代表性正负样本

这对“选题复盘”和“评论区风向判断”很实用。


八、适用场景

  • 内容运营:复盘某条视频的用户反馈
  • 新媒体团队:快速形成“可汇报”的舆情材料
  • 创作者:看粉丝关注点与争议点
  • 数据分析同学:做多视频横向对比

九、我自己的使用建议

如果你要把它用于日常工作流,我建议:

  1. 先跑单视频,确认数据链路与参数
  2. 再跑批量视频,做横向对比
  3. 维护一个自己的 stopwords 词表(按垂类持续迭代)
  4. 报告里优先看三件事:
    • 情绪结构是否异常
    • 高频词是否偏离内容定位
    • 负向样本是否集中在某个可改进点

十、开源地址

如果你刚好也在做内容分析,欢迎直接拿去用:

🔗 GitHub:https://github.com/Smartloe/bilibili-danmaku

欢迎提 issue / PR,一起把它打磨成更顺手的中文内容分析工具。🚀


十一、免责声明

请遵守 B站平台规则与相关法律法规。
本项目仅用于公开数据分析与研究,不用于违规抓取和滥用。

Read more

PPO-VLA:强化学习如何让机器人“看得更懂、抓得更准”?

PPO-VLA:强化学习如何让机器人“看得更懂、抓得更准”?

一项来自清华大学的实证研究表明,相比传统的监督微调,使用PPO算法进行强化学习微调,能使VLA模型在语义理解和执行鲁棒性方面的分布外泛化能力提升高达42.6%。 论文:What Can RL Bring to VLA Generalization? An Empirical Study 链接:https://arxiv.org/abs/2505.19789 代码:https://rlvla.github.io 想象一下,你让一个家用机器人“把桌上的苹果放进碗里”。在实验室里,它可能完成得很好。但一旦进入你家,面对从未见过的餐桌纹理、一个形状奇特的“碗”、或者在你下达指令时苹果被意外碰歪了位置,它还能顺利完成吗? 这正是当前VLA模型面临的泛化挑战。这类模型通过整合视觉感知、语言理解和机器人控制,已成为具身人工智能领域的明星。然而,其主流训练方法——监督微调,本质上是在模仿专家演示数据。当环境稍有变化,微小的误差便会累积,导致机器人“

By Ne0inhk

75元!复刻Moji 2.0 小智 AI 桌面机器人,基于乐鑫ESP32开发板,内置DeepSeek、Qwen大模型

文末联系小编,获取项目源码 Moji 2.0 是一个栖息在你桌面上的“有灵魂的伴侣”,采用乐鑫 ESP32-C5开发板,配置 1.5寸 360x360 高清屏,FPC 插接方式,支持 5G Wi-Fi 6 极速连接,内置小智 AI 2.0 系统,主要充当智能电子宠物的角色,在你工作学习枯燥时,通过圆形屏幕上的动态表情包卖萌解压,提供情绪陪伴;同时它也是功能强大的AI 语音助手,支持像真人一样流畅的连续对话,随时为你查询天气、解答疑惑或闲聊解闷,非常适合作为极客桌搭或嵌入式学习的开源平台。 🛠️ 装配进化 告别手焊屏幕的噩梦。全新设计的 FPC 插座连接,排线一插即锁,将复刻门槛降至最低。 🚀 性能进化 主控升级为 ESP32-C5。支持 5GHz Wi-Fi 6,

By Ne0inhk
手把手教你配置飞书 OpenClaw 机器人,打造企业级 AI 智能助手

手把手教你配置飞书 OpenClaw 机器人,打造企业级 AI 智能助手

目标:在飞书(Feishu/Lark)中添加 OpenClaw 机器人,实现 7×24 小时 AI 智能对话与自动化办公。 OpenClaw GitHub | feishu-openclaw 桥接项目 想让你的机器人具备语音交互能力?试试 Seeed Studio 的 ReSpeaker 系列吧! 我会后续出reSpeaker XVF3800与Openclaw联动实现语音输入的教程,完全开放源码。 reSpeaker XVF3800 是一款基于 XMOS XVF3800 芯片的专业级 4 麦克风圆形阵列麦克风,即使在嘈杂的环境中也能清晰地拾取目标语音。它具备双模式、360° 远场语音拾取(最远 5 米)、自动回声消除 (AEC)、自动增益控制 (AGC)、声源定位 (DoA)、去混响、波束成形和噪声抑制等功能。

By Ne0inhk

电商客服机器人实战:SGLang+DeepSeek快速落地

电商客服机器人实战:SGLang+DeepSeek快速落地 1. 为什么电商客服需要SGLang这样的推理框架? 你有没有遇到过这样的场景:大促期间,客服咨询量暴增3倍,人工坐席全在线仍排队200+,用户等5分钟没回复直接关页面?或者,刚上线的AI客服回答“订单状态”还行,但一问“能不能把这件T恤换成同款蓝色,差价我补”,就卡壳说“我正在学习中”? 这不是模型能力不行,而是传统部署方式拖了后腿。 很多团队用vLLM或Ollama跑DeepSeek,结果发现: * 多轮对话时,每轮都重算前面所有token,GPU显存吃紧,吞吐掉一半; * 想让模型返回标准JSON格式(比如{"action": "exchange", "sku": "DS-2024-BLUE", "refund": 12.5}),得靠后处理正则清洗,出错率高还慢; * 写个“先查订单→

By Ne0inhk