手把手教你用 ModelEngine 打造“赛博占卜师”:AI 塔罗智能体 (Agent) 开发实战

手把手教你用 ModelEngine 打造“赛博占卜师”:AI 塔罗智能体 (Agent) 开发实战

大家好,我是爱编程的喵喵。双985硕士毕业,现担任全栈工程师一职,热衷于将数据思维应用到工作与生活中。从事机器学习以及相关的前后端开发工作。曾在阿里云、科大讯飞、CCF等比赛获得多次Top名次。现为ZEEKLOG博客专家、人工智能领域优质创作者。喜欢通过博客创作的方式对所学的知识进行总结与归纳,不仅形成深入且独到的理解,而且能够帮助新手快速入门。

本文主要介绍了手把手教你用 ModelEngine 打造“赛博算命师”:AI 塔罗应用开发实战,希望能对学习Agent开发的同学们有所帮助。

文章目录

1. 前言与目标

你是否曾对朋友圈的性格测试结果会心一笑?其实,这些测试的魔力不在于“准”,而在于其模糊性、正面性和个性化的语言艺术(即巴纳姆效应)。

本次,我决定打破传统,用最前沿的 AI 技术——ModelEngine,来解构并重塑这一经典娱乐形式,打造一个能说会道、有“据”可循的赛博占卜师。

我们的目标是:创建一个 AI 应用,用户只需提供 姓名、性别、出生日期 和一个 问题(如事业、感情),即可获得一段充满古典玄学词汇,但又无比贴合其输入的、独一无二的“命理分析”。

2. 平台准备与应用创建

2.1 进入平台

首先,打开官网 https://www.modelengine-ai.com/#/home,注册登录后,点击在线体验进入平台控制台。

在这里插入图片描述

2.2 创建应用

在左侧工具栏中,选择 “对话应用”,然后点击 “创建空白应用”。

在这里插入图片描述

2.3 基础信息设置

在弹出的窗口中,输入应用的名称(例如:赛博塔罗师)和简介,点击确认。

在这里插入图片描述

3. 核心实操:工作流编排

创建完成后,点击进入工作流编排界面。这里是 AI 应用的“大脑”组装车间。

在这里插入图片描述


在这里插入图片描述

3.1 配置输入节点 (Start Node)

现在的“开始节点”默认只有一个输入项。为了获取占卜所需的信息,我们需要点击节点上的 “+” 号,添加其他用户输入项。

在这里插入图片描述

我们需要配置以下 4个字段:

  • Question (询问事项)
  • gender (性别)
  • birth_month (出生日期)
  • today (今天日期)
在这里插入图片描述

3.2 简化工作流

由于本次应用主要依赖大模型的生成能力,不需要通过知识库检索或文件提取,因此我们需要做减法:

  • 删除 “知识检索” 节点
  • 删除 “文件提取” 节点
  • 直接将 “开始节点” 连线至 “大模型节点”
在这里插入图片描述

3.3 配置大模型节点

点击大模型节点,开始定义输入参数。我们需要将上一步定义的字段名,引用为大模型的输入值。

在这里插入图片描述


在这里插入图片描述

4. 灵魂注入:Prompt 提示词工程

这是决定“赛博算命师”聪明程度的关键步骤。在 ModelEngine 中,我们需要通过系统提示词和用户提示词的配合,来精准控制 AI 的输出。

它们之间的逻辑关系如下:

  1. 系统提示词 (System Prompt) —— “宪法与身份”:
    • 作用:它是静态的、全局的。它规定了 AI “是谁”(角色设定)以及 “不能做什么”(边界限制)。
    • 逻辑:无论用户输入什么,系统提示词都会强制 AI 遵守格式(如 JSON 或特定结构)并防止 AI 胡乱回答(如拒绝回答非塔罗话题)。
  2. 用户提示词 (User Prompt) —— “剧本与指令”:
    • 作用:它是动态的、具体的。它负责接收用户输入的变量(如 {{gender}}),并告诉 AI “现在具体要算什么”。
    • 逻辑:这里是变量注入发生的地方。我们将上一步定义的输入字段嵌入到这段提示词中,让 AI 针对每一个具体用户生成独一无二的内容。

模型参数配置:

  • 模型选择:DeepSeek (深度求索)
  • 温度 (Temperature):0.7 (保证输出既有逻辑又有一定的发散性)

4.1 系统提示词:确立边界与格式

在此处,我们重点定义 AI 的技能树和回复限制,确保它不会“出戏”。

# 角色 你是一个专业的塔罗牌AI占卜智能体,能够依据用户提供的性别、出生月份、今日日期以及想要占卜的具体事情,给出准确且有针对性的塔罗牌占卜结果。 # 技能 ## 技能 1: 格式化输出 必须严格遵守特定的输出结构,包含“牌面名称”、“牌面解读”和“针对性建议”。 ## 技能 2: 边界防御 - 仅围绕塔罗牌占卜相关内容进行回复。 - 拒绝回答与塔罗牌占卜无关的话题(如编程、政治等)。 - 回复内容需基于塔罗牌知识体系,不得随意编造完全无依据的内容。 

4.2 用户提示词:注入变量与风格

⚠️ 关键逻辑:此处使用了 {{ }} 符号引用前序节点的变量。这是将用户输入转化为模型上下文的桥梁。

# 角色 你是塔罗牌大师"星语",拥有20年占卜经验,擅长将古典塔罗智慧与现代生活结合。 # 动态任务输入 请基于以下用户实时提供的信息,进行占卜: - 用户性别:{{gender}} <-- 变量注入点 - 出生月份:{{birth_month}} <-- 变量注入点 - 询问事项:{{Question}} <-- 变量注入点 - 今日日期:{{today}} # 占卜执行流程 1. **牌面抽取**:随机选择一张塔罗牌(包括正逆位)。 2. **个性化连接**:必须结合用户的【性别】和【出生月份】特质,针对其【询问事项】进行解读。(例如:如果用户是摩羯座,建议应偏向务实)。 # 输出风格要求 - 语言:诗意但不过分玄虚,温暖但不甜腻。 - 基调:启发式,强调"你拥有改变的力量"。 - 格式模板: 塔罗启示:{牌名} {正位/逆位} 牌面象征:{简要描述} 核心信息: {结合 {{Question}} 的深度解读} 给你的专属指引: {基于 {{birth_month}} 特质的3条建议} 星语的话:{一句温暖的结束语} 

5. 调试、发布与体验

5.1 在线调试

配置完成后,不要急着发布。如果直接点击发布,可能会报错。我们需要先点击右下角的 “运行” 按钮进行调试。

在这里插入图片描述

在调试界面输入测试数据,可以看到工作流每个节点的运行状态。

在这里插入图片描述

可视化检查:点击每个节点,可以查看具体的输入输出内容,确保参数传递无误。

在这里插入图片描述
在这里插入图片描述

5.2 正式发布

确认运行成功且结果符合预期后,点击右上角的 “发布” 按钮。

在这里插入图片描述

5.3 成果体验

发布成功后,在工作台中就能看到你的应用了。单击应用卡片查看详细信息,点击进入聊天界面,即可开始与你的专属“赛博算命师”对话。

在这里插入图片描述
在这里插入图片描述

6. 结语

通过构建这个“AI 占卜”应用,我们发现 ModelEngine 不仅仅是一个生产力工具,更是一个创意放大镜。它将天马行空的想象,通过可视化编排和智能体,变成了可触摸、可交互的现实。

这个项目完美地证明了:

  • 技术的温度:AI 技术可以不只是处理枯燥的报表,更能用来创造快乐和惊喜。
  • 开发的敏捷:从“灵光一现”到“产品上线”,零代码/低代码平台将开发周期缩短到了令人惊叹的程度。

最终,我们创造的不仅是一个应用,更是一个生动的案例:它告诉我们,在 AI 时代,最宝贵的或许不是技术本身,而是将技术与人情味连接起来的、无穷的创造力。

Read more

AI的提示词专栏:通过 “Logit Bias” 精细调控词汇生成

AI的提示词专栏:通过 “Logit Bias” 精细调控词汇生成

AI的提示词专栏:通过 “Logit Bias” 精细调控词汇生成 本文围绕 “Logit Bias(对数几率偏移)” 展开全面解析,先阐释其核心概念,说明它通过干预模型词汇对数几率实现精准调控,区别于 Temperature 等全局参数;接着介绍其在敏感信息管控、核心信息强化、输出格式固定等场景的应用,如电商客服合规话术生成、产品卖点突出等;随后给出实操指南,包括配置流程、Bias 值设定及常见问题解决方案,还探讨其与结构化 Prompt、RAG 技术的结合应用;最后展望多模态扩展、动态调控等未来趋势,强调 Logit Bias 对提升文本生成质量的重要性,为相关从业者提供系统参考。 人工智能专栏介绍     人工智能学习合集专栏是 AI 学习者的实用工具。它像一个全面的 AI 知识库,把提示词设计、AI 创作、智能绘图等多个细分领域的知识整合起来。无论你是刚接触 AI 的新手,还是有一定基础想提升的人,

OpenClaw 最新功能大揭秘!2026年最火开源AI Agent迎来史诗级升级,手机变身AI终端不是梦

OpenClaw 最新功能大揭秘!2026年最火开源AI Agent迎来史诗级升级,手机变身AI终端不是梦 大家好,我是Maynor。最近开源社区彻底炸锅了——OpenClaw(前身Clawdbot/Moltbot)又一次刷屏!这个能真正“干活”的本地AI助手,在3月2日刚刚发布v2026.3.1版本,紧接着2月底的v2026.2.26也是里程碑式更新。 从外部密钥管理、线程绑定Agent,到Android深度集成、WebSocket优先传输……OpenClaw正在把“AI常驻员工”从概念变成现实。 今天这篇图文并茂的干货,带你一口气看懂最新功能、安装上手和实战价值!

从 AI “撞车” 到学术 “突围”:PaperXie 如何重构论文降重与 AIGC 检测的新范式

从 AI “撞车” 到学术 “突围”:PaperXie 如何重构论文降重与 AIGC 检测的新范式

paperxie-免费查重复率aigc检测/开题报告/毕业论文/智能排版/文献综述/aippthttps://www.paperxie.cn/weight?type=1https://www.paperxie.cn/weight?type=1 在学术写作与科研成果发表的赛道上,每一位研究者都曾面临过相似的困境:当你耗费数月心血完成的论文,却因重复率过高或 AIGC 检测疑似度超标而被拒稿时,那种挫败感足以消磨掉所有创作热情。而随着人工智能生成内容(AIGC)在学术领域的广泛应用,传统的降重工具早已无法应对知网、维普等平台日益严苛的检测标准。在这样的背景下,PaperXie 以 “降重复 | AIGC 率” 为核心功能,正在重新定义学术写作的辅助生态,为研究者们提供了一条从 AI “撞车” 到学术 “突围” 的全新路径。 一、学术写作的 “双重困境”:重复率与 AIGC 检测的双重夹击

突破性能瓶颈:llama.cpp多GPU分布式计算优化实践指南

突破性能瓶颈:llama.cpp多GPU分布式计算优化实践指南 【免费下载链接】llama.cppPort of Facebook's LLaMA model in C/C++ 项目地址: https://gitcode.com/GitHub_Trending/ll/llama.cpp 你是否还在为大模型推理时单GPU显存不足而苦恼?是否遇到过模型加载缓慢、生成效率低下的问题?本文将从实战角度出发,系统讲解llama.cpp项目的多GPU性能优化方案,帮你解决分布式推理中的设备调度、显存分配和并行效率三大核心难题。读完本文,你将掌握多GPU环境配置、性能监控与问题诊断的完整流程,让本地大模型部署效率提升300%。 多GPU架构解析:从设备发现到任务调度 llama.cpp通过GGML后端实现跨设备计算调度,其核心机制位于src/llama.cpp的设备管理模块。系统启动时会自动扫描所有可用计算设备,按优先级分为GPU、集成GPU(iGPU)和RPC服务器三类,相关代码逻辑如下: // 设备分类与优先级排序(