【AI智能体】N8N Data table实现自定义表单数据增删改查实战详解

【AI智能体】N8N Data table实现自定义表单数据增删改查实战详解

目录

一、前言

二、N8N介绍

2.1 n8n 是什么

2.2 n8n 核心特点

2.3 n8n 主要应用场景

三、N8N 配置自定义表单实现Data Table增删改查操作过程

3.1 Data Table介绍

3.1.1 Data Table是什么

3.1.2 Data Table核心特点

3.1.3 Data Table适用场景

3.2 创建Data Table并初始化数据

3.2.1 创建一个DataTable

3.2.2 添加字段

3.3 配置N8N工作流

3.3.1 添加表单触发节点

3.3.2 增加Data table节点

3.3.3 增加一个条件分支节点

3.3.4 增加一个判断节点

3.3.5 增加一个Data table数据增加节点

3.3.6 增加一个Data table数据查询节点

3.3.7 效果测试

3.4 Data table 使用场景补充

四、写在文末


一、前言

2025年是AI大模型广泛使用的一年,随着大模型的能力日渐完善,基于大模型的其他周边的能力也逐步被开发出来,也在更广泛的领域中开始使用,比如结合低代码+工作流的AI智能体平台,基于传统的互联网应用的各自人工智能客服系统,各种助手等,因此大模型的边界得到了很大的拓展。在国内,比如典型的具有代表性的像Coze ,国外的Dify 等智能体平台,就是很好的将大模型的能力发挥到极致的代表,本文以智能体平台中非常核心的一个模块,工作流为例,来聊聊另一个近期非常火热的融合大模型与各种插件的流程编排工具,n8n。

二、N8N介绍

2.1 n8n 是什么

n8n 是一个开源的工作流自动化工具,它允许用户通过可视化的方式创建、执行和自动化各种任务,这些任务可以是数据处理、文件操作、API 调用等。n8n 支持多种节点(nodes),每个节点代表一个特定的操作或服务,例如读取数据库、发送电子邮件、与第三方服务API交互等。官网:

Read more

用 OpenClaw 配置 Codex 5.3:一套“性价比很高”的个人 AI 编程方案

用 OpenClaw 配置 Codex 5.3:一套“性价比很高”的个人 AI 编程方案

这篇是我自己的实战复盘:从 OAuth 报错、模型没切过去,到最终把 OpenClaw 稳定跑在 openai-codex/gpt-5.3-codex 上,并通过飞书远程使用。 先说结论 如果你也在找「便宜 + 强 + 可控」的方案,我现在这套组合非常能打: * OpenClaw 负责 Agent 编排(工具、文件、会话、渠道) * OpenAI Codex 5.3 负责核心编码能力 * Feishu 作为消息入口(随时远程下指令) * 本地 Workspace 放在 G:\claw,项目资产可控 这套的性价比点在于: 1. 不需要重搭一整套复杂平台 2. Codex 5.3 编码质量明显高于普通通用模型

【OpenClaw从入门到精通】第01篇:保姆级教程——从零开始搭建你的第一个本地AI助理(2026实测版)

【OpenClaw从入门到精通】第01篇:保姆级教程——从零开始搭建你的第一个本地AI助理(2026实测版)

摘要:本文聚焦2026年开源AI代理工具OpenClaw的本地部署与实操,从核心概念拆解入手,先厘清OpenClaw、Gateway、Skills、ClawHub的关联,再明确硬件系统要求与大模型API-Key准备要点,通过官方一键安装脚本完成本地部署,并配置阿里云百炼API实现大模型对接。以“让AI助理抓取开源中国热门项目”的虚拟实战案例,详细演示Skills调用流程,同时梳理部署中“命令找不到”“API-Key配置失败”等高频问题的解决方法。内容兼顾新手友好性与实操参考性,所有步骤均基于公开技术文档验证,案例为虚拟构建,代码仅作示例未上传GitHub,可指导读者快速搭建本地AI助理并验证核心功能。 优质专栏欢迎订阅! 【DeepSeek深度应用】【Python高阶开发:AI自动化与数据工程实战】【YOLOv11工业级实战】 【机器视觉:C# + HALCON】【大模型微调实战:平民级微调技术全解】 【人工智能之深度学习】【AI 赋能:Python 人工智能应用实战】【数字孪生与仿真技术实战指南】 【AI工程化落地与YOLOv8/v9实战】【C#工业上位机高级应用:高并发通信+性

【用AI学Agent】Agent入门前置:大模型基础(开发向)

【用AI学Agent】Agent入门前置:大模型基础(开发向)

首先欢迎大家点进文章,其次 申明:本系列内容是作者通过AI学习Agent得到的内容,如若有错误之处,欢迎批评指正 很多想入门AI Agent开发的朋友,例如我,第一步就被“大模型”的各种概念绕晕——上下文窗口、Token、温度、思维链,这些到底是什么?和Agent有什么关系? 其实不用慌,Agent的核心是“让AI自主做事”,而大模型(LLM)就是Agent的“大脑”——不懂大脑的工作原理,后续学RAG、工具调用、Agent架构都会很吃力。 这篇博客专门为Agent学习者打造,包含开发中能直接用到的大模型基础知识点,从“是什么”到“怎么用”,帮你夯实Agent入门的第一块基石。 一、大模型(LLM)到底是什么? * 很多人对大模型的理解有误区,觉得它“无所不能”,能像人一样思考、理解世界; * 也有人觉得它“只是个问答机器人”,没必要深入学习。 其实这两种想法都不对。 用最通俗的话讲:

安卓端 AI 绘画新突破:local-dream 项目让 Stable Diffusion 在手机端高效运行,骁龙 NPU 加速加持

安卓端AI绘画新突破:local-dream项目让Stable Diffusion在手机端高效运行,骁龙NPU加速加持 在AI绘画技术飞速发展的当下,Stable Diffusion作为主流模型,凭借出色的图像生成能力备受青睐。然而,其对硬件性能的较高要求,使得多数用户只能在电脑端体验。不过,随着“local-dream”项目的出现,这一局面被彻底打破。该项目专注于让安卓设备流畅运行Stable Diffusion模型,不仅支持高通骁龙NPU加速,还兼容CPU/GPU推理,为移动设备AI绘画开辟了全新路径。 项目核心目标与基础信息 “local-dream”项目的核心目标清晰明确,就是打破硬件限制,让安卓用户无需依赖高性能电脑,在手机或平板上就能轻松体验Stable Diffusion模型的强大图像生成功能。无论是日常创作、创意设计,还是简单的图像生成需求,用户都能随时随地通过安卓设备完成。 对于想要了解和使用该项目的用户,关键信息必不可少。项目的GitHub地址为https://github.com/xororz/local-dream,用户可以在这里获取项目的源代码、详细