【AI智能体】Coze 抓取小红书爆款视频写入飞书多维表实战详解

【AI智能体】Coze 抓取小红书爆款视频写入飞书多维表实战详解

目录

一、前言

二、Coze介绍

2.1 Coze是什么

2.2 Coze 可以做什么

2.3 Coze 相比其他智能体平台优势

2.4 Coze 工作流介绍

2.5 Coze 工作流典型使用场景

2.6 Coze制作小红书视频抓取智能体介绍

2.6.1 核心优势

2.6.2 最佳使用场景

2.6.3 优点与缺点

三、工作流完整配置过程

3.1 前置准备

3.1.1 创建一个飞书多维表

3.2.1 获取cookie

3.2 创建工作流

3.3 配置工作流

3.3.1 增加开始节点参数

3.3.2 增加小红书插件

3.3.3 增加一个代码节点

3.3.4 增加批处理节点

3.3.5 增加一个获取笔记详情节点

3.3.6 增加一个代码节点

3.3.7 增加一个飞书节点

四、写在文末


一、前言

2025年是AI人工智能大规模使用的一年。AI大模型能力在不断挖掘的同时,如何基于大模型做更进一步的升级呢,于是AI智能体就应运而生。AI智能体是结合了众多软件技术的合集,充分发掘大模型的能力,并且拓展大模型的能力,让更多使用者即使不懂大模型,也能低成本的快速掌握AI的使用。在众多的智能体平台中,像Coze , Dify ,FastGPT等,都在构筑自己的智能体平台,为普通的非互联网人员也能快速打造属于自己的智能体应用,接下来以Coze平台为例,基于Coze制作一个自媒体领域和视频创作中非常常见的场景,抓取小红书热门视频并提取信息写入飞书多维表的智能体工作流。

二、Coze介绍

2.1 Coze是什么

coze是新一代AI应用发布平台,不管你是否有编程经验,都可以在coze这个平台上面快速搭建基于大模型的各类AI应用,并将AI应用发布到各个社交平台,通讯软件等,也可以通过API或者SDK将AI应用集成到你的业务系统中。平

Read more

多模态大模型核心原理与实战:从Stable Diffusion到Sora全面解析

多模态大模型核心原理与实战:从Stable Diffusion到Sora全面解析

多模态大模型通过Embedding、信息融合与任务学习处理多源数据。Stable Diffusion利用CLIP和UNet实现文本到图像生成,Sora扩展到视频领域,加入时空切块和一致性模块保证连贯性。大模型赋能推荐系统实现个性化内容生成,如GeneRec和PMG。工程实践中需关注模型瘦身、流式训练及多层级评估体系,平衡效率与正确性。 多模态大模型的基本原理 多模态大模型的整体架构,与纯文本大模型没本质区别,都要经原始数据的 Embedding、信息融合与目标任务学习及微调等过程。 5阶段模型训练: (1) 理解数据并将其 Embedding化。 (2)多模态 Embedding 对齐。 (3)多模态信息交互与融合。 (4)多任务学习。 (5)多模态微调。 Stable Diffusion(稳定扩散模型) (1)文本编码器:负责把输入的 Prompt 映射到 Embedding 空间。 (2)图像信息生成器:负责在 Embedding 空间把文本 Embedding 转换成包含这些文本信息的图像 Embedding。 (3)

YOLO+OpenClaw+SAM微调实战:工业缺陷自动标注的低代码落地

YOLO+OpenClaw+SAM微调实战:工业缺陷自动标注的低代码落地

YOLO+OpenClaw+SAM微调实战:工业缺陷自动标注的低代码落地 不能实时,不代表不能用。微调SAM+云端部署,让工业标注从“人工描边”变“一键验收”。 大家好,我是AI小怪兽。上周有位做PCB质检的读者发来一段视频:标注员正对着一块电路板缺陷图,用鼠标一点点勾勒划痕的边界,一张图花了8分钟。他说:“YOLO能框,但框不准;SAM能分割,但通用模型到我们产线就水土不服。有没有办法让标注员少点鼠标?” 当然有。今天我就结合工业缺陷检测场景,展示一套低代码落地路径:YOLO粗定位 + 微调SAM精分割 + OpenClaw自动调度,让标注员从“动手画”变成“动口验收”。 一、工业自动标注的三道坎 坎1:OpenClaw无法实时推理 OpenClaw从接收指令到调用模型返回结果,5秒以上是常态。产线上的产品不可能等5秒,但标注任务可以——把数千张图丢给AI,让它半夜慢慢跑,员工早上来验收结果,不香吗? 坎2:边缘端算力要求大,且存在安全风险 OpenClaw调用大模型需要至少8GB显存,

银发浪潮下的智能护理革命:全球老龄化社会护理机器人发展研究

银发浪潮下的智能护理革命:全球老龄化社会护理机器人发展研究

一、全球老龄化态势与护理需求激增 1.1 人口结构剧变下的养老挑战 当前,全球人口结构正经历着深刻变革,老龄化浪潮汹涌来袭。世界卫生组织数据清晰地勾勒出未来的图景:到 2050 年,全球 60 岁以上人口预计将飙升至 21 亿,老龄化率一举突破 25%。这一趋势在部分国家尤为显著,日本、韩国、德国等已深陷超深度老龄化的泥沼,养老问题成为社会发展的沉重负担。 以日本为例,这个高度发达的经济体,如今正面临着老龄化的严峻考验。其 65 岁以上人口占比接近 30%,每三个国民中就有一位老人。在街头巷尾,随处可见步履蹒跚的老人,他们的生活需求成为社会关注的焦点。韩国的老龄化速度同样惊人,从老龄化社会迈向超级老龄化社会仅仅用了短短 16 年,预计到 2050 年,65 岁以上人口占比将突破 40%,社会养老压力与日俱增。 而在我国,养老形势也不容乐观。截至 2024

论文阅读笔记:π 0 ​ : A Vision-Language-Action Flow Model for General Robot Control

由 Physical Intelligence (Pi) 团队发表的论文 “π0\pi_0π0 : A Vision-Language-Action Flow Model for General Robot Control” 是具身智能(Embodied AI)领域的里程碑式工作。它提出了第一个基于流匹配(Flow Matching)的大型视觉-语言-动作(VLA)基础模型,在多项极其困难的灵巧操作任务(如折叠衣服、清理桌面、组装纸箱)上达到了前所未有的自主水平。 第一部分:论文核心要点总结 1. 核心架构:VLM + 独立动作专家 (Action Expert) + Flow Matching * 基础模型:采用预训练的视觉语言模型(PaliGemma,3B参数),继承互联网级的丰富语义和常识推理能力。 * 动作专家:为避免破坏 VLM 的语义表征,