【AI】coze的简单入门构建智能体

【AI】coze的简单入门构建智能体
前言:最近扣子很火,我来学习一下!扣子时新一代的AI应用平台。在扣子上搭建AI应用,只需要在界面上点击下一步下一步,做些配置,就可以快速去搭建一个AI应用。让我来看看,扣子是何方神圣吧~

一、什么是coze?

扣子是新一代AI应用开发平台。无论你是否有编程基础,都可以在扣子上快速搭建基于大模型的各类AI应用,并将AI应用发布到各个社交平台,也可以通过API或SDK将AI应用集成到你的业务系统中。

二、coze能做什么?

扣子提供可视化设计与编排工具,通过零代码或低代码方式,快速搭建基于大模型的各类AI项目。(登录到扣子官网,进入到商店,有各种应用、插件等)

  • 智能体:智能体是基于对话的AI项目,能理解自然语言,调用知识库与插件,通过可视化工作流完成复杂任务,并可发布到多端使用,如智能客服、虚拟伴侣等
  • 应用:利用大模型技术开发的应用程序。在扣子中搭建的AI应用具备完整业务逻辑和可视化用户界面,是一个独立的AI项目,如AI搜索、翻译工具等
  • 插件:是 一个工具集,一个插件内可以包括一个或多个工具(API)。用于扩展智能体 / Bot 的功能,通过标准化接口与工作流集成,帮助完成联网搜索、知识库问答、邮件 / 日历、图片理解、多模态生成等任务;若coze集成的插件不满足你的使用需求,你还可以创建自定义插件来集成所需要的API
    三者的关系:智能体是 “会自主做事” 的主体;应用是它在业务中的价值场景;插件是按需装配的能力模块,三者共同支撑从客服到工业等多领域的智能化升级。

三、coze的优点

  • 灵活的工作流设计:扣子的工作流功能可以用来处理逻辑复杂,且有较高稳定性要求的任务流。扣子提供了大量灵活可组合的节点包括大语言模型LLM、自定义代码、判断逻辑等。
  • 无限拓展的能力集:扣子集成了丰富的插件工具,极大的拓展智能体的边界。扣子官方提供了多款能力丰富的插件,可以将这些插件直接插入你的智能体中;扣子平台也支持自定义插件,可以将已有的API能力通过参数配置的方式快速创建一个插件让智能体调用,也可以发布到商店,供其他的用户使用。
  • 丰富的数据源:扣子提供了简单易用的知识库功能来管路和存储数据,支持智能体与自己的数据进行交互。(存储数据的功能)
  • 持久化的记忆能力:扣子提供了方便AI交互的数据库记忆能力,可持久记住用户对话的重要参数或内容。(数据库的记录功能)

四、coze的使用

4.1 认识插件

插件与工具

coze支持创建自定义插件。每个插件可添加多个工具,同一个插件内的不同工具必须使用相同的域名。插件中的每个工具都是一个独立的API。调用插件其实就是调用插件内的某个工具,即API。
如,一个查询天气的AI Service可能包含以下两个API:

  • 查询当前天气:http://api.weather.com/current
  • 查询未来天气:http://api.weather.com/forecast
    【注】每个工作空间下最多可创建1000个插件,每个插件中最多包含100个工具,每个账号下最多可创建15个IDE插件
基于API创建一个插件

在创建插件时,首先需要将这个API服务注册为一个插件,然后将这个服务下的API添加到插件中作为工具使用,最后将插件发布上线。
在调用扣子 API 前,确保你已经将智能体发布为了 API 服务,并通过不同的授权方式获取了访问令牌

获取访问令牌
  • 首先登录到扣子平台

点击添加键,在弹出来的窗口如下,设置一些信息,点击确定,在弹出来的窗口点击复制访问令牌!!(一定要复制,因为只能查看一次令牌

在这里插入图片描述

点击左侧扣子API->授权->个人访问令牌->添加获取访问令牌

在这里插入图片描述
步骤一:创建插件
  1. 登录coze平台
  2. 在左侧导航栏中选择工作空间,并在页面顶部空间列表中选择个人空间或团队空间。
    • 系统默认创建一个个人空间,在该空间内创建的资源都是私人资源,其他用户不可见
  3. 填写插件基础信息
    • 输入插件名称和描述
    • 插件工具创建方式选择基于已有服务创建
    • 插件URL:输入API的服务地址
    • 授权方式选择不需要授权
    • 单击确认完成插件创建

将Header信息配置到Header列表当中
a.Authorization,Bearer 个人访问令牌
b.Content-Type,application/json

在这里插入图片描述

在资源库页面右上角单击+资源,并选择插件

在这里插入图片描述
步骤二:添加工具

首先看看工具路径怎么弄:
工具路径:如图,工具路径是GEThttps://api.coze.cn/这块是给出来的,填/后面这部分即可(先记下来路径)。接下来开始建插件工具

在这里插入图片描述


在这里插入图片描述

配置输入参数:还是在查看智能体列表处,往下滑的Query params

在这里插入图片描述
  1. 在已创建的插件页面,单击创建工具
  2. 配置工具名称和描述信息,然后单击确定
    • 工具路径:工具路径以/开始
  3. 单击右上角试运行
  4. 试运行页面,输入参数,然后单击运行测试接口。测试完成后,单击完成

请求方法为GET方法

在这里插入图片描述

在编辑工具页面,完成以下操作
a.单击更多信息区域的右上角的编辑,配置工具的路径和请求方法,然后单击保存b.单击配置输入参数区域右上角的编辑,单击新增参数配置请求参数,然后单击保存
c.单击配置输出参数区域右上角的编辑,单击自动解析,在弹出的页面输入请求参数值,再单击自动解析。接口调用成功后,会返回参数自动填充到输出参数列表,可以根据需求进行修改,然后单击保存

在这里插入图片描述

4.2工作流

工作流介绍:

工作流是一系列可执行指令的集合,用于实现业务逻辑或完成特定任务。它为应用/智能体的数据流动和任务处理提供了一个结构化框架。工作流的核心是将大模型的强大能力与特定的业务逻辑相结合,通过系统化、流程化的方法来实现高效、可扩展的AI应用。
简单来说就是,工作流是一种可视化、可编排的流程设计工具,用于定义智能体在处理用户请求或执行任务时的具体步骤和逻辑

节点:

工作流的核心在于节点,每个节点是一个具有特定功能的独立组件,负责处理数据、执行任务等,有输入和输出。工作流默认含开始(定义启动输入参数)和结束节点(返回运行结果),节点可通过引用输出连接,形成操作链。
在工作流节点编排时,灵活性和扩展性很关键;多种类型的节点(如开始节点、插件节点、代码节点等)都支持 String、Integer 等多种变量类型;可根据实际需求灵活选数据类型,无需额外数据转换,以此提升工作流编排的灵活性与扩展性。

在这里插入图片描述
工作流与对话流
  • 工作流:用来处理功能类请求的,能通过依次执行一系列节点来达成某个功能。
  • 对话流:针对对话场景的特殊工作流,专门处理对话类请求;如,在应用里添加对话流,会把对话里的用户指令拆成一个个步骤节点,并且为这些节点设计用户界面,这样就能搭建出适配移动端或网页端的对话式 AI 应用,让对话流程实现自动化与智能化
对话流和工作流的区别

与工作流相比,对话流更具有交互性。每个对话流都和一个会话绑定,运行的时候能从这个会话里读取历史信息,还能把本次运行对话流产生的消息记录到这个会话里,就相当于是有记忆功能的工作流。可以这么理解,当用户发起请求时,AI 靠工作流处理;返回结果给用户时,用对话流。

二者区别如下:

差异工作流对话流
场景工作流用于处理功能类请求,适合数据自动化处理,像生成行业调研报告等对话流是对话场景的特殊工作流,更适配处理对话类请求,适用于智能客服等对话式应用
节点工作流里涉及大模型处理的节点不支持查看对话历史对话流开始节点需传入会话名称以记录对话历史,模型类节点还能读取对话历史,会话上下文会和用户问题一起传给大模型
角色配置工作流不支持角色配置对话流支持,可单独为每个对话流配置角色名称、头像等属性,且在不同场景下能以指定角色与用户交互,还有相应的优先级规则
用户界面工作流支持丰富的布局、展示等组件类型对话流目前仅支持 AI 对话组件,可将对话流包装成聊天面板展示在移动端或网页端
发布渠道工作流在 AI 应用中支持发布到 API,绑定用户界面后还能发布到模板、商店,但暂不支持发布到社交渠道等对话流在 AI 应用中支持发布到 API&SDK、小程序、社交渠道等扣子提供的所有发布渠道
API调用工作流通过 API 执行工作流或执行工作流(流式响应)来调用对话流通过 API 执行对话流来调用
搭建工作流:

工作流是一系列可执行指令的集合,用于实现业务逻辑或完成特定任务。你可以在智能体和应用搭建中通过工作流实现特定的任务或指令。但在此之前,需要先构建一个可运行的工作流。

步骤一:创建工作流
  1. 登录扣子开发平台
  2. 在左侧导航栏中选择工作空间,并在左侧顶部空间列表中选择个人空间(默认是个人空间,这里我以个人空间为例)
  3. 资源库页面右上角单击+资源 ,并选择工作流

设置工作流的名称(要英文的)与描述,并单击确认

在这里插入图片描述

【注】创建好后会自动跳转至工作流的编辑页面,初始状态下工作流包含开始节点和结束节点,顾名思义,开始节点用于启动工作流,结束节点用于返回工作流的运行结果。

步骤二:编排工作流

创建好工作流后,你在画布中添加节点。工作流内置了很多基础节点供使用,同时还可以添加插件节点来执行特定任务。

  1. 在底部面板中选择要使用的节点
  2. 将各节点相连接

配置节点的输入和输出参数
输出参数:

在这里插入图片描述
步骤三:测试并发布工作流

要想在智能体内使用该工作流,需要发布工作流(跟插件一样)

单击发布
示例:(我这里是简单示例,所以节点只有一个。)

在这里插入图片描述

单击试运行,运行成功的会显示
单击试运行的时候,需要你加入一个测试集,第一次必须要手动创建,后续测试时可以将结果记录下来(勾选将本次运行输入保存为测试集)

在这里插入图片描述

【注】发布以后就可以将这个工作流添加到智能体内了

在智能体中添加工作流
添加工作流
  1. 前往智能体页面,选择进入指定智能体
  2. 在智能体编排页面的工作流区域,单击右侧的加号图标
  3. 在智能体的人设与回复逻辑区域,引用工作流的名称来调用工作流。

添加工作流对话框,在资源库工作流页面选择工作流

在这里插入图片描述
设置工作流异步运行

工作流默认为同步运行,即智能体必须在工作流运行完毕后才会将工作流的输出传递给智能体用户。如果工作流复杂,或包含一些运行耗时长的节点,可能会导致工作流整体运行耗时长,智能体判断为工作流运行超时,在其运行完毕前就结束对话。例如包含图像流节点、多个大模型节点,或编排逻辑复杂的工作流节点。

开启异步运行:

异步运行效果:

在这里插入图片描述

开启异步运行,并设置回复内容。

在这里插入图片描述

在指定工作流右侧单击设置

在这里插入图片描述

至此,一个简单的智能体就已经创建好了。

Read more

Spring Boot携手Leaflet,点亮省级旅游口号WebGIS可视化之路

Spring Boot携手Leaflet,点亮省级旅游口号WebGIS可视化之路

目录 前言 一、旅游口号信息管理 1、写在前面的 2、空间属性关联 二、SpringBoot后台实现 1、系统调用时序图 2、Mapper数据查询实现 3、控制层接口实现 三、Leaflet集成实现WebGIS 1、省级数据展示及可视化 2、东北三省旅游口号 3、长三角城市群口号 4、珠三角旅游口号 5、西北地区旅游口号 四、总结 前言         在当今数字化浪潮汹涌澎湃的时代,地理信息系统(GIS)技术正以前所未有的速度改变着我们对世界的认知与探索方式。它不仅为科学研究提供了强大的工具,更在旅游、城市规划、环境保护等诸多领域展现出巨大的应用潜力。而当我们将目光聚焦于旅游行业,一个充满活力与创新的领域,GIS技术的应用更是如鱼得水,为旅游体验的提升和旅        游管理的优化带来了全新的机遇。         省级旅游口号作为各地旅游宣传的重要名片,承载着地域文化的精髓与旅游资源的亮点,是吸引游客、塑造旅游品牌形象的关键要素。然而,传统的旅游口号宣传方式往往局限于文字、

传统制图VS AI制图:一线产区标准图效率对比

快速体验 1. 打开 InsCode(快马)平台 https://www.inscode.net 2. 输入框内输入如下内容: 开发一个效率对比工具,分别用传统方法和AI方法生成一线产区标准图。传统方法模拟人工绘制流程,AI方法使用机器学习分类。统计两种方法的时间消耗和准确率,用图表展示结果。技术栈包括Python、Pandas和Matplotlib。 3. 点击'项目生成'按钮,等待项目生成完整后预览效果 传统制图VS AI制图:一线产区标准图效率对比 最近在工作中遇到了一个需求:需要快速生成一线产区和二线产区的标准图。传统的人工绘制方法耗时耗力,于是我开始探索AI辅助制图的可能性。经过一番尝试,发现AI在数据处理、分类和可视化方面的效率提升确实令人惊喜。 传统制图流程的痛点 1. 数据收集与整理 传统方法需要人工从各种渠道收集产区数据,包括产量、地理位置、气候条件等。这个过程往往需要几天甚至几周时间,而且容易出错。 2. 分类标准制定 一线产区和二线产区的划分标准需要专家团队反复讨论确定,每次调整都需要重新处理数据。

opencode+Git集成:版本控制中AI辅助操作指南

opencode+Git集成:版本控制中AI辅助操作指南 1. 开篇:当Git遇见AI编程助手 你是否曾经在Git提交时纠结于怎么写好提交信息?或者在代码合并冲突时头疼不已?又或者想要重构代码却担心破坏现有功能? 今天我们要介绍的opencode,正是为了解决这些痛点而生。这是一个开源的AI编程助手框架,特别适合与Git版本控制系统配合使用。它能在你编码的每个环节提供智能辅助,从代码编写到提交信息生成,从冲突解决到代码审查。 最棒的是,opencode支持本地部署的模型,比如我们将要使用的Qwen3-4B-Instruct-2507,这意味着你的代码永远不会离开你的本地环境,完全保障了隐私和安全。 2. opencode是什么? 2.1 核心特点 opencode是一个2024年开源的AI编程助手框架,用Go语言编写,主打"终端优先、多模型、隐私安全"的理念。它把大语言模型包装成可插拔的智能体,支持在终端、IDE和桌面三端运行。 你可以把它理解为你的编程副驾驶,但它比一般的代码补全工具强大得多。opencode支持代码补全、重构、调试、项目规划等全流程辅助,而且可以

本地离线部署AI大模型:OpenClaw + Ollama + Qwen3.5:cloud/Qwen3:0.6b 超详细教程(无需GPU)

本地离线部署AI大模型:OpenClaw + Ollama + Qwen3.5:cloud/Qwen3:0.6b 超详细教程(无需GPU)

前言 随着开源大模型越来越成熟,我们完全可以在自己电脑上本地运行AI,不联网、不上传数据、免费使用,隐私性极强。 今天这篇文章,我会一步步带你完成:Ollama + Qwen3.5:cloud(主力模型)+ Qwen3:0.6b(轻量备选)+ OpenClaw 的本地部署,实现一个属于自己的本地聊天AI,兼顾效果与低配置适配。 一、项目介绍 本项目实现本地离线运行阿里通义千问系列大模型(Qwen3.5:cloud 主力模型 + Qwen3:0.6b 轻量备选模型),全程不需要云端API,不需要高性能显卡,普通电脑就能跑,可根据自身电脑配置选择对应模型。 用到的工具: * Ollama:最简单的本地大模型管理工具,一键拉取、运行、管理模型 * Qwen3.5:cloud:阿里云开源的轻量高性能大语言模型,对话效果强、适配本地部署,作为主力使用