手把手教你用 ModelEngine 打造“赛博占卜师”:AI 塔罗智能体 (Agent) 开发实战

手把手教你用 ModelEngine 打造“赛博占卜师”:AI 塔罗智能体 (Agent) 开发实战

大家好,我是爱编程的喵喵。双985硕士毕业,现担任全栈工程师一职,热衷于将数据思维应用到工作与生活中。从事机器学习以及相关的前后端开发工作。曾在阿里云、科大讯飞、CCF等比赛获得多次Top名次。现为ZEEKLOG博客专家、人工智能领域优质创作者。喜欢通过博客创作的方式对所学的知识进行总结与归纳,不仅形成深入且独到的理解,而且能够帮助新手快速入门。

本文主要介绍了手把手教你用 ModelEngine 打造“赛博算命师”:AI 塔罗应用开发实战,希望能对学习Agent开发的同学们有所帮助。

文章目录

1. 前言与目标

你是否曾对朋友圈的性格测试结果会心一笑?其实,这些测试的魔力不在于“准”,而在于其模糊性、正面性和个性化的语言艺术(即巴纳姆效应)。

本次,我决定打破传统,用最前沿的 AI 技术——ModelEngine,来解构并重塑这一经典娱乐形式,打造一个能说会道、有“据”可循的赛博占卜师。

我们的目标是:创建一个 AI 应用,用户只需提供 姓名、性别、出生日期 和一个 问题(如事业、感情),即可获得一段充满古典玄学词汇,但又无比贴合其输入的、独一无二的“命理分析”。

2. 平台准备与应用创建

2.1 进入平台

首先,打开官网 https://www.modelengine-ai.com/#/home,注册登录后,点击在线体验进入平台控制台。

在这里插入图片描述

2.2 创建应用

在左侧工具栏中,选择 “对话应用”,然后点击 “创建空白应用”。

在这里插入图片描述

2.3 基础信息设置

在弹出的窗口中,输入应用的名称(例如:赛博塔罗师)和简介,点击确认。

在这里插入图片描述

3. 核心实操:工作流编排

创建完成后,点击进入工作流编排界面。这里是 AI 应用的“大脑”组装车间。

在这里插入图片描述


在这里插入图片描述

3.1 配置输入节点 (Start Node)

现在的“开始节点”默认只有一个输入项。为了获取占卜所需的信息,我们需要点击节点上的 “+” 号,添加其他用户输入项。

在这里插入图片描述

我们需要配置以下 4个字段:

  • Question (询问事项)
  • gender (性别)
  • birth_month (出生日期)
  • today (今天日期)
在这里插入图片描述

3.2 简化工作流

由于本次应用主要依赖大模型的生成能力,不需要通过知识库检索或文件提取,因此我们需要做减法:

  • 删除 “知识检索” 节点
  • 删除 “文件提取” 节点
  • 直接将 “开始节点” 连线至 “大模型节点”
在这里插入图片描述

3.3 配置大模型节点

点击大模型节点,开始定义输入参数。我们需要将上一步定义的字段名,引用为大模型的输入值。

在这里插入图片描述


在这里插入图片描述

4. 灵魂注入:Prompt 提示词工程

这是决定“赛博算命师”聪明程度的关键步骤。在 ModelEngine 中,我们需要通过系统提示词和用户提示词的配合,来精准控制 AI 的输出。

它们之间的逻辑关系如下:

  1. 系统提示词 (System Prompt) —— “宪法与身份”:
    • 作用:它是静态的、全局的。它规定了 AI “是谁”(角色设定)以及 “不能做什么”(边界限制)。
    • 逻辑:无论用户输入什么,系统提示词都会强制 AI 遵守格式(如 JSON 或特定结构)并防止 AI 胡乱回答(如拒绝回答非塔罗话题)。
  2. 用户提示词 (User Prompt) —— “剧本与指令”:
    • 作用:它是动态的、具体的。它负责接收用户输入的变量(如 {{gender}}),并告诉 AI “现在具体要算什么”。
    • 逻辑:这里是变量注入发生的地方。我们将上一步定义的输入字段嵌入到这段提示词中,让 AI 针对每一个具体用户生成独一无二的内容。

模型参数配置:

  • 模型选择:DeepSeek (深度求索)
  • 温度 (Temperature):0.7 (保证输出既有逻辑又有一定的发散性)

4.1 系统提示词:确立边界与格式

在此处,我们重点定义 AI 的技能树和回复限制,确保它不会“出戏”。

# 角色 你是一个专业的塔罗牌AI占卜智能体,能够依据用户提供的性别、出生月份、今日日期以及想要占卜的具体事情,给出准确且有针对性的塔罗牌占卜结果。 # 技能 ## 技能 1: 格式化输出 必须严格遵守特定的输出结构,包含“牌面名称”、“牌面解读”和“针对性建议”。 ## 技能 2: 边界防御 - 仅围绕塔罗牌占卜相关内容进行回复。 - 拒绝回答与塔罗牌占卜无关的话题(如编程、政治等)。 - 回复内容需基于塔罗牌知识体系,不得随意编造完全无依据的内容。 

4.2 用户提示词:注入变量与风格

⚠️ 关键逻辑:此处使用了 {{ }} 符号引用前序节点的变量。这是将用户输入转化为模型上下文的桥梁。

# 角色 你是塔罗牌大师"星语",拥有20年占卜经验,擅长将古典塔罗智慧与现代生活结合。 # 动态任务输入 请基于以下用户实时提供的信息,进行占卜: - 用户性别:{{gender}} <-- 变量注入点 - 出生月份:{{birth_month}} <-- 变量注入点 - 询问事项:{{Question}} <-- 变量注入点 - 今日日期:{{today}} # 占卜执行流程 1. **牌面抽取**:随机选择一张塔罗牌(包括正逆位)。 2. **个性化连接**:必须结合用户的【性别】和【出生月份】特质,针对其【询问事项】进行解读。(例如:如果用户是摩羯座,建议应偏向务实)。 # 输出风格要求 - 语言:诗意但不过分玄虚,温暖但不甜腻。 - 基调:启发式,强调"你拥有改变的力量"。 - 格式模板: 塔罗启示:{牌名} {正位/逆位} 牌面象征:{简要描述} 核心信息: {结合 {{Question}} 的深度解读} 给你的专属指引: {基于 {{birth_month}} 特质的3条建议} 星语的话:{一句温暖的结束语} 

5. 调试、发布与体验

5.1 在线调试

配置完成后,不要急着发布。如果直接点击发布,可能会报错。我们需要先点击右下角的 “运行” 按钮进行调试。

在这里插入图片描述

在调试界面输入测试数据,可以看到工作流每个节点的运行状态。

在这里插入图片描述

可视化检查:点击每个节点,可以查看具体的输入输出内容,确保参数传递无误。

在这里插入图片描述
在这里插入图片描述

5.2 正式发布

确认运行成功且结果符合预期后,点击右上角的 “发布” 按钮。

在这里插入图片描述

5.3 成果体验

发布成功后,在工作台中就能看到你的应用了。单击应用卡片查看详细信息,点击进入聊天界面,即可开始与你的专属“赛博算命师”对话。

在这里插入图片描述
在这里插入图片描述

6. 结语

通过构建这个“AI 占卜”应用,我们发现 ModelEngine 不仅仅是一个生产力工具,更是一个创意放大镜。它将天马行空的想象,通过可视化编排和智能体,变成了可触摸、可交互的现实。

这个项目完美地证明了:

  • 技术的温度:AI 技术可以不只是处理枯燥的报表,更能用来创造快乐和惊喜。
  • 开发的敏捷:从“灵光一现”到“产品上线”,零代码/低代码平台将开发周期缩短到了令人惊叹的程度。

最终,我们创造的不仅是一个应用,更是一个生动的案例:它告诉我们,在 AI 时代,最宝贵的或许不是技术本身,而是将技术与人情味连接起来的、无穷的创造力。

Read more

Ubuntu24.04/Whisper/Docker Compose 本地部署

Ubuntu24.04/Whisper/Docker Compose 本地部署

简介 Whisper 是 OpenAI 于 2022 年 9 月开源的一款自动语音识别系统。它最突出的特点在于其鲁棒性,即使在面对口音、背景噪音或专业术语等复杂场景时,也能保持较高的识别准确性,在英语语音识别上已接近人类水平 。 核心技术与工作原理 Whisper 的强大能力源于其独特的技术设计,主要包括以下几点: * 端到端的 Transformer 架构:Whisper 采用编码器-解码器的 Transformer 模型架构 。输入音频被分割成30秒的片段并转换为对数梅尔频谱图,然后由编码器提取特征,解码器根据这些特征预测对应的文本 。 * 大规模多任务训练:模型在从互联网收集的、高达68万小时的多语言(支持近百种语言)和多任务监督数据上进行训练,数据集的巨大规模和多样性是其强大泛化能力的基础 。训练时,模型会交替执行多项任务,如多语言语音转录、语音翻译(到英语)、语言识别以及生成带短语级时间戳的文本等 。 * 统一的多任务格式:通过引入特殊的标记,Whisper 使用一个统一的模型来处理所有任务。这些标记指示模型当前需要执行的具体任务,这种设计使得单个模型能够替代传

深度评 Mastering GitHub Copilot 课程:Copilot 版本差异(免费 / Pro)的讲解适配

Copilot 版本差异概述 GitHub Copilot 提供免费版和 Pro 版(现整合为 GitHub Copilot Individual 和 Business 计划),核心差异体现在功能权限、使用场景及代码生成能力上。 免费版(原学生/开源项目版) * 适用对象:学生、开源贡献者(需验证资格)。 * 功能限制:基础代码补全、单行/多行建议,但响应速度可能受限。 * 使用场景:仅支持个人非商业项目,部分私有仓库可能无法使用。 Pro 版(Individual/Business) * 增强功能:优先访问新特性(如 Copilot Chat)、更快的响应速度、支持私有仓库。 * 商业许可:允许商业代码生成,符合企业合规要求。 * 团队协作:Business 版提供团队管理工具,如使用量统计和策略控制。 课程讲解适配建议

Whisper 音频转录

你好呀!今天我们来聊聊如何用 OpenAI 的 Whisper 工具把音频文件变成文字。这东西可厉害了,不管是 podcast、讲座还是自己录的语音,都能轻松转成文本,超方便的! 准备工作 📋 在开始之前,你需要准备好: * Python 3.7 或更高版本(现在大部分电脑都有了) * 一点磁盘空间(模型大小从几十MB到几GB不等,看你选哪个) * 对啦,还要有网络,因为第一次用需要下载模型 安装 Whisper 🚀 安装超级简单,打开命令行,输入这行代码就搞定: pip install openai-whisper 等着它自己安装完就好啦,是不是很easy? 使用我们的转录脚本 📝 已经为你准备了一个超级好用的脚本transcribe_audio.py,它可以批量处理音频文件,超省时间! 脚本有啥功能? * 支持各种音频格式:mp3、wav、m4a、flac 都没问题 * 自动创建

超全实测!llama.cpp性能基准库:从参数调优到多场景测试全攻略

超全实测!llama.cpp性能基准库:从参数调优到多场景测试全攻略 【免费下载链接】llama.cppPort of Facebook's LLaMA model in C/C++ 项目地址: https://gitcode.com/GitHub_Trending/ll/llama.cpp 你是否还在为本地部署大语言模型(LLM)时的性能瓶颈发愁?同样的硬件配置,为何有人能跑100 tokens/秒,而你却卡在20 tokens/秒?本文将带你深度掌握llama.cpp官方性能测试工具——llama-bench,通过标准化测试流程和参数调优技巧,让你的模型性能提升300%! 读完本文你将获得: * 3分钟上手的性能测试命令模板 * 4组关键参数(线程数/GPU层/批处理大小)调优指南 * 5种输出格式(CSV/JSON/