Delphi程序和大模型交互之二

Delphi程序和大模型交互之二

关于前面的 《Delphi程序和大模型交互》

我只是测试了 AI 能否理解并且能否创建 SOAP 的调用协议对应的 XML;我是在AI的浏览器聊天页面里面测试的,AI 的输出是聊天文本,我复制粘贴到我的 Delphi 代码里面去执行的。如果要完整的自动化跑,应该是调用 AI 的 API。但我目前没有调用 API 的免费账户,就没有做这个工作。哪天搞到个账号再试试能否完全自动化地跑起来,不需要人肉在中间复制粘贴文本来回传。

大概流程

  1. 告诉AI这里是 SOAP 调用,给它 SOAP 调用的 WSDL,让它分析里面有几个函数或者方法。然后告诉它某个函数比如我的例子里面的 XPlusY 函数,是执行加法的函数。
  2. 我告诉它我要调用 XPlusY 函数,X 是多少,Y 是多少,这里是自然语言;以下是我输入给 AI 的自然语言请求:
调用 XPlusY 函数

现在你需要作为一个 WebService 客户端,调用服务器提供的 XPlusY 函数,你必须生成调用 XPlusY 函数的完整的符合SOAP协议的XML给服务器端。
调用 XPlusY 函数的两个参数分别是:X=12; Y=22;
请深入思考后输出符合规范的XML
  1. AI 创建一个调用 XPlusY 函数的 XML,里面的 X和Y的参数它也按照我的自然语言提出的需求构造好了。
  2. 如果我的代理程序是接的 API,则程序可以自动拿到 AI 输出的 XML,然后我的程序使用 IdHTTP 把这个 XML Post 给我的 WebService 程序,这个是 Delphi 写的。
  3. 我的 WebService 程序执行了 XPlusY 这个函数,并返回结果给我的代理程序;我的代理程序(也就是包含 IdHTTP 并且接了 AI 的 API 的程序)收到函数调用的返回(返回也是 XML 字符串),把这个 XML 字符串丢给 AI;
  4. AI 拿到这个 XML 字符串,它自己会根据 SOAP 协议标准分析其内容,从里面获得函数的返回值。我的例子代码里面,是 34. 以下是 AI 一大堆分析 XML 的输出文本里面我摘取出来的 AI 输出:
元素内容为 34,即计算结果(12 + 22 = 34)。

假设的应用场景

假设我用自然语言问 AI 现在深圳的气温是多少。AI 的训练数据肯定是以前的,没有今天的深圳气温数据。但如果我事先写好一堆提示词,告诉 AI 使用 SOAP 去调用哪个函数,把这一堆提示词和“现在深圳气温是多少?”这句自然语言一起发给AI,则AI会创建 SOAP 调用的 XML 输出给我的程序,我的程序就会执行对应的函数,我在这个函数里面去调用天气预报的接口API(可能是个 HTTP 调用),然后把从天气预报API里面拿到的数据返回给AI,AI 按照SOAP协议自动分析返回的 SOAP 调用结果的 XML 字符串,从里面找出真正天气数据,然后用自然语言告诉我现在的气温是多少。

Read more

彻底解决 ComfyUI Mixlab 插件 Whisper.available False 的报错

彻底解决 ComfyUI Mixlab 插件 Whisper.available False 的报错

https://github.com/MixLabPro/comfyui-mixlab-nodes 彻底解决 ComfyUI Mixlab 插件 Whisper.available False 的报错 在 ComfyUI 中安装 Mixlab Nodes 插件后,控制台显示其他节点正常,便 Whisper.available False。即使环境里安装了 openai-whisper 和 faster-whisper,问题依然可能存在。 Whisper.available False 本文将分享如何通过修改 __init__.py 进行深度 Debug,并修复 Whisper.py 中的路径逻辑漏洞。 1. 深度排查:让报错“开口说话” Mixlab 的默认日志只提示 False,不显示原因。为了抓出真凶,

本地大模型:如何在内网部署 Llama/Qwen 等安全增强模型

本地大模型:如何在内网部署 Llama/Qwen 等安全增强模型 你好,我是陈涉川,欢迎你来到我的专栏。在上一篇《架构设计:安全 AI 产品的全生命周期(MLSecOps)》中,我们走出了“霍格沃茨的实验室”,直面血肉横飞的真实工程战场,拆解了从需求定义到模型退役的全生命周期(MLSecOps)七阶蓝图。我们明白了,安全 AI 的落地绝不是丢一个 Python 脚本进 Docker 那么简单,而是一场融合了算法、运维与合规的系统级工程。 既然掌握了宏观架构,本篇我们将直接拔剑出鞘,扎进生成式 AI 落地最硬核、最逼仄的深水区——物理隔离的内网环境。如何在严守数据安全与合规红线的前提下,在算力捉襟见肘的企业内网中,将百亿参数的 Llama 或 Qwen 部署上线,并将其微调成一个拥有坚定防守立场、断网也能满血运行的“企业专属安全大脑”! 引言:跨越红线,

大学生AI写作工具全流程应用指南(从开题到答辩)

说明:本清单按论文写作时间线划分6个核心阶段,明确各阶段工具搭配、操作要点及注意事项,可直接对照执行,兼顾效率与学术合规性。 阶段1:开题阶段(核心目标:确定选题+完成开题报告) 工具搭配:豆包AI + PaperRed 操作步骤: 1. 选题构思:打开豆包AI,输入“XX专业(如汉语言文学)本科论文选题方向”,获取5-8套开题思路;同时用PaperRed的“学术热点图谱”功能,输入核心关键词,查看近3年文献增长趋势与研究空白区,筛选出兼具可行性与创新性的选题。 2. 框架及内容生成:在PaperRed中选择“开题报告”,输入确定的选题,选择自己学校的模板,生成包含“研究背景、目的意义、研究方法、进度安排”的标准框架及内容并且格式也是调整好的,生成基础内容后人工优化,确保逻辑连贯。 注意事项:选题需结合自身专业基础,避免过度依赖AI选择超出能力范围的课题。 阶段2:文献搜集与梳理阶段(核心目标:高效获取权威文献+

一文详解llama.cpp:核心特性、技术原理到实用部署

目录 * 项目定位与核心特性:介绍llama.cpp是什么、核心设计哲学及主要特点。 * 核心架构与技术原理:分析其软件架构、GGML基础库、GGUF文件格式和量化技术。 * 环境部署与实践指南:提供安装部署的多种方式、基本运行方法和API服务配置。 * 进阶特性与扩展功能:介绍路由模式、工具调用、平台移植和企业级部署方案。 🎯 项目定位与核心特性 llama.cpp是一个用纯C/C++编写的开源大语言模型推理框架,最初为在本地运行Meta LLaMA模型而创建。它的核心设计哲学是极简、高效与可移植,旨在让大模型推理摆脱对GPU和复杂Python环境的依赖。 核心设计哲学 1. 极简与可移植性:纯C/C++实现意味着几乎零外部依赖,能在从云服务器到树莓派的各种设备上编译运行。 2. CPU优先优化:虽然后期加入了强大的GPU支持,但其初心是让LLM在普通CPU上高效运行,这使其在众多依赖GPU的框架中独树一帜。 3. 极致性能追求:通过底层硬件指令集优化和量化技术,实现在有限硬件上的惊人性能表现。 主要特点对比 特性维度llama.cpp典型Pyth