打造智能写作工作流:n8n + 蓝耘MaaS平台完整实战指南

打造智能写作工作流:n8n + 蓝耘MaaS平台完整实战指南

文章目录

一、前言

随着AI技术的快速发展,越来越多的开发者和内容创作者开始探索如何将AI能力集成到自己的工作流中。今天,我们将通过蓝耘平台的MaaS模型服务,结合强大的工作流自动化工具n8n,打造一个智能写文工作流。更令人兴奋的是,蓝耘平台正在推出"送千万Token资源包"福利活动,让更多用户能够免费体验AI的强大能力!

二、环境准备

2.1 注册蓝耘平台并获取API凭证

2.1.1 注册蓝耘MaaS平台

首先访问蓝耘MaaS平台官网进行注册。平台为新用户提供大量免费token,可以充分测试各种模型。

蓝耘注册页面

2.1.2 获取API密钥

登录后,进入MaaS平台选项卡,您将看到多种可调用的AI模型:

在左侧菜单中找到"API KEY管理",点击"创建API KEY",系统会生成API密钥。请妥善保存这个密钥,它是连接AI模型的关键。

创建新的API KEY

2.1.3 获取模型信息和接口地址

在MaaS模型广场中,选择您想使用的模型。点击查看详情后,您可以看到模型路径/maas/deepseek-ai/DeepSeek-V3.1,所有AI模型获取模型路径的方式一致。

模型详情页面

蓝耘提供了OpenAI兼容接口,可在MaaS平台文档中找到。

OpenAI兼容接口
💡 福利提醒:现在注册即可获得千万Token资源包,足够支撑大量的AI创作任务!

2.2 安装Docker环境

2.2.1 下载并安装Docker Desktop

首先进入Docker官网下载Docker桌面版:Docker官网

进入到Docker官网后点击Download Docker Desktop去下载Docker桌面版

Docker官网

找到适合我们的版本去下载,这里选择Windows-AMD64

下载Windows-AMD64的Docker

2.2.2 配置Docker环境

运行Docker的安装程序后,点击OK

Docker安装Configuration


Docker Desktop安装完成

启动Docker Desktop后使用谷歌账号或者Github账号进行登录。

登录Docker Desktop

2.2.3 配置国内镜像源

需要配置Docker的国内镜像源,在Settings中配置Docker Engine,配置完毕后点击Apply&restart应用并重启:

{"builder":{"gc":{"defaultKeepStorage":"20GB","enabled":true}},"experimental":false,"registry-mirrors":["https://registry.cn-hangzhou.aliyuncs.com","https://docker.mirrors.ustc.edu.cn","https://registry.docker-cn.com","http://hub-mirror.c.163.com"]}
配置Docker国内镜像源

2.3 部署n8n工作流平台

2.3.1 拉取n8n镜像

在Images中点击Search images to run搜索镜像并运行。

搜索镜像

Docker Hub中搜索n8n,然后找到n8nio/n8n点击Pull

搜索n8n镜像


点击Pull拉取n8n

2.3.2 创建并运行n8n容器

拉取成功后点击运行n8n镜像

运行n8n镜像

创建n8n容器配置:

配置项
Container namen8n
Host port5678
Host pathn8n_data
Container path/home/node/.n8n
创建一个n8n容器

看到打印http://localhost:5678说明运行成功

运行容器

2.3.3 初始化n8n账户

在浏览器中访问http://localhost:5678进入n8n创建账户页面

创建n8n账户

登录后进入到n8n的主页面。至此,我们已经成功部署n8n了。

n8n主页面

三、构建智能写文工作流

现在让我们在n8n中构建一个智能写文工作流,该工作流将能够:

  • 接收写作主题和要求
  • 调用蓝耘平台MaaS模型生成内容
  • 对生成的内容进行优化和格式化
  • 输出最终的文章

3.1 创建工作流基础架构

3.1.1 创建新工作流

在n8n界面中点击 Create Workflow

在n8n中创建工作流

为工作流命名:智能写文助手

给工作流命名为智能写文助手

3.1.2 添加触发器节点

添加Manual Trigger节点作为工作流的起点

添加Manual Trigger节点作为工作流的起点

双击Manual Trigger节点进行配置

双击Manual Trigger节点

点击编辑按钮,配置输入参数:

  • topic: 文章主题
  • style: 写作风格(如:正式、轻松、技术性等)
  • length: 文章长度要求
  • keywords: 关键词(可选)
[{"topic":"请输入文章主题","style":"通用","length":"1000-2000字","keywords":"请输入关键词,用逗号分隔"}]
配置输入参数

3.2 配置AI模型调用

3.2.1 添加HTTP请求节点

添加HTTP Request节点用于调用蓝耘MaaS API

添加Http Request节点

3.2.2 配置请求参数

双击HTTP Request节点进行配置:

基础配置:

  • 请求方式(Method):POST
  • 请求地址URL:https://maas-api.lanyun.net/v1/chat/completions
配置请求方式和URL

配置Headers(请求头):

  • 请求头1:Name(Content-Type),Value(application/json
  • 请求头2:Name(Authorization),Value(Bearer 蓝耘MaaS平台的APIKEY
启动并配置请求头

配置Body(请求体):
点击"Send Body"开关后,选择JSON格式,然后输入:

注意:/maas/deepseek-ai/DeepSeek-V3.1这个是蓝耘MaaS平台的模型名称,可以切换成蓝耘MaaS平台中的任意模型。
{"model":"/maas/deepseek-ai/DeepSeek-V3.1","messages":[{"role":"system","content":"你是一个专业的内容创作助手,擅长根据用户需求创作高质量文章。"},{"role":"user","content":"请根据以下要求创作文章:\n主题:{{ $json.topic }}\n写作风格:{{ $json.style }}\n文章长度:{{ $json.length }}\n关键词:{{ $json.keywords }}\n\n请创作一篇结构清晰、内容丰富的文章。"}],"max_tokens":2000,"temperature":0.7}
启动并配置请求体

3.2.3 测试API连接

配置完成后,点击Execute step测试是否能够调通蓝耘MaaS平台的模型

测试是否能够调用蓝耘MaaS平台的模型

3.3 内容处理与优化

3.3.1 添加内容处理节点

添加Code节点进行内容处理

添加Code节点进行内容处理

3.3.2 配置内容处理逻辑

双击Code节点进行配置,语言选择JavaScript:

// 提取AI生成的内容const aiResponse = items[0].json.choices[0].message.content;// 基本的内容格式化let formattedContent = aiResponse .replace(/\n\n/g,'\n\n')// 规范化段落间距.replace(/^\s+|\s+$/g,'')// 去除首尾空白.trim();// 添加文章元信息const metadata ={title: items[0].json.topic ||'未命名文章',createdAt:newDate().toISOString(),wordCount: formattedContent.length,style: items[0].json.style ||'通用'};return[{json:{content: formattedContent,metadata: metadata,originalResponse: aiResponse }}];

点击Execute step测试是否配置成功。

测试Code节点是否有效

3.4 生成Markdown文档

3.4.1 添加文档生成节点

在内容处理节点后,添加一个 Code 节点用于生成 Markdown 格式并下载

添加一个Code节点用于生成Markdown格式并下载

3.4.2 配置Markdown生成逻辑

配置Code节点,实现Markdown文档生成:

// 获取处理后的数据const items = $input.all();const processedData = items[0].json;// 生成 Markdown 内容const markdownContent =`# ${processedData.metadata.title} --- **创建时间:** ${newDate(processedData.metadata.createdAt).toLocaleString('zh-CN')} **字数统计:** ${processedData.metadata.wordCount} 字符 **文章风格:** ${processedData.metadata.style} --- ## 正文内容 ${processedData.content} --- ## 文档信息 - **生成时间:** ${newDate().toLocaleString('zh-CN')} - **文件格式:** Markdown (.md) - **处理状态:** 已完成内容格式化和优化 --- *本文档由 n8n 工作流自动生成* `;// 生成文件名(使用时间戳避免重复)const timestamp =newDate().toISOString().replace(/[:.]/g,'-').slice(0,19);const fileName =`${processedData.metadata.title.replace(/[^\w\u4e00-\u9fa5]/g,'_')}_${timestamp}.md`;// 打印下载信息 console.log(`📁 Markdown 文件已准备完成`); console.log(`📄 文件名:${fileName}`); console.log(`📊 文件大小:${markdownContent.length} 字符`);// 返回可下载的文件数据return[{json:{...processedData,markdown:{content: markdownContent,fileName: fileName,mimeType:'text/markdown',size: markdownContent.length }},binary:{data:{data: Buffer.from(markdownContent,'utf8').toString('base64'),mimeType:'text/markdown',fileName: fileName,fileExtension:'md'}}}];

点击Execute step进行执行,执行完成后,点击Download下载Markdown文件

测试markdown文件是否成功下载

查看Markdown文档内容

正确下载

四、工作流测试与验证

4.1 完整流程测试

首先编辑起点节点,topic主题设置为如何制作排骨当归汤?,点击Save保存

点击Execute workflow执行工作流

执行工作流

4.2 验证输出结果

执行完毕后,下载并查看Markdown文件,验证生成的内容质量

查看markdown

五、总结

通过本教程,我们成功构建了一个基于蓝耘MaaS平台和n8n的智能写文工作流。这个工作流具有以下优势:

部署便捷

  • 使用Docker可以快速在本地搭建n8n环境,无需复杂配置
  • 一键式容器部署,环境隔离性好

高度自定义

  • 可以根据需要调整模型参数、输出格式和处理逻辑
  • 支持多种写作风格和内容类型定制

可扩展性强

  • n8n的节点化设计使工作流可以轻松扩展
  • 可添加更多功能如文本翻译、图片生成、内容审核等

成本效益高

  • 利用蓝耘平台提供的千万Token资源包,可以免费进行大量AI创作实验
  • 相比其他AI服务,性价比更高

自动化程度高

  • 从输入主题到生成格式化文档,整个过程完全自动化
  • 大幅提高内容创作效率,释放创作者时间

Read more

【AIGC】大模型面试高频考点19:常见的17种RAG方案

【AIGC】大模型面试高频考点19:常见的17种RAG方案

RAG技术全景解析:从基础分块到自适应多模态检索 * 一、基础分块与语义优化 * 1. Simple RAG(简单切块) * 2. Semantic Chunking(语义切块) * 3. Context Enriched Retrieval(上下文增强检索) * 4. Contextual Chunk Headers(上下文标题) * 二、检索优化与重排序 * 1. Document Augmentation(文档增强) * 2. Query Transformation(查询转换) * 3. Reranker(重排序) * 4. RSE(Re-ranking with Semantic Expansion) * 三、智能路由与自反思机制 * 1. Feedback Loop(反馈闭环) * 2. Adaptive RAG(

By Ne0inhk

Claude Code的完美平替:OpenCode + GitHub Copilot

引言:Claude 虽好,但你真的能用上吗? 在当前席卷全球的“Vibe Coding”浪潮中,Anthropic 推出的 Claude 系列模型 + 终端工具 Claude Code,凭借极强的逻辑推理能力,成为了开发者眼中的“白月光”。但现实是残酷的:对于中国开发者而言,账号随时被封、海外信用卡支付遭拒、API 额度受限以及复杂的网络环境,构成了一道难以逾越的门槛。 虽然最近国产编程模型不断发力,Claude Code + GLM-4.7的表现非常出色,但面对复杂问题,Claude系列模型依然完胜。难道我们只能眼馋Claude全家桶的编程体验吗? 作为一名追求极致生产力的开发者,我发现了一个绝佳的完美替代方案:OpenCode + GitHub Copilot。这个组合不仅能让你享受如 GLM-4.7 一样的性价比,还能更方便的使用 Claude 的顶级模型。 Claude Code 的开源免费平替:OpenCode 想要复刻

By Ne0inhk
AI 智能编码工具:重塑开发效率的革命,从 GitHub Copilot 到国产新秀的全面解析

AI 智能编码工具:重塑开发效率的革命,从 GitHub Copilot 到国产新秀的全面解析

目录 引言 一、主流智能编码工具深度测评:从功能到实战 1. GitHub Copilot:AI 编码的 “开山鼻祖” 核心特性与实战代码 优缺点总结 2. Baidu Comate:文心大模型加持的 “国产之光” 核心特性与实战代码 优缺点总结 3. 通义灵码:阿里云的 “企业级编码助手” 核心特性与实战代码 优缺点总结 引言 作为一名拥有 8 年开发经验的程序员,我曾无数次在深夜对着屏幕反复调试重复代码,也因记不清框架语法而频繁切换浏览器查询文档。直到 2021 年 GitHub Copilot 问世,我才第一次感受到:AI 不仅能辅助编码,更能彻底改变开发模式。如今,智能编码工具已从 “尝鲜选项” 变为 “必备工具”,它们像经验丰富的结对编程伙伴,能精准补全代码、生成测试用例、

By Ne0inhk
2026 届毕业生必看:各大学位论文 AIGC 检测率要求汇总,超过这个数真的危险了!

2026 届毕业生必看:各大学位论文 AIGC 检测率要求汇总,超过这个数真的危险了!

一、 前言 随着 2026 届毕业季的临近,很多小伙伴在写论文时都离不开 AI 的辅助。但今年最让大家头疼的不再仅仅是查重率,而是新出的AIGC 疑似度。 很多学校已经明确:如果 AIGC 检测超过阈值,直接取消答辩资格! 今天我就帮大家梳理一下目前主流的检测要求,以及如何正确应对。 二、 各大高校 AIGC 检测率“红线”汇总 虽然各校标准不一,但根据目前各大高校反馈的最新政策,基本可以划分为三个梯度: 风险等级AIGC 疑似度范围学校处理建议安全区< 20%基本无风险,属于合理参考范围。预警区20% - 40%导师需进行人工核查,可能要求提供写作痕迹证据。高危区> 40%极大可能被判定为“代写”或“学术不端”,面临延毕风险。 注意: 部分顶尖院校(如 C9

By Ne0inhk