【Axure教程】AI自动对话机器人

【Axure教程】AI自动对话机器人

AI对话机器人的应用已经非常广泛,从你日常使用的手机助手到企业复杂的客服系统,背后都有它的身影。所以今天就教大家在Axure里制作Ai对话机器人的原型模版,制作完成后,只需要在中继器表格里输入问题和答案,预览时就可以实现自动回复。具体效果你们可以观看下面的视频或打开原型预览地址亲自体验

【原型效果】

1、在输入框里输入问题后,自动搜索问题列表,如果找到答案,机器人自动回复;如果找不到答案,也会回复引导话术。

2、机器人回复时,会模拟打字输入效果,逐字回复。

3、问题和答案,可以在中继器表格里添加或修改。

图片

【原型预览含下载地址】

https://axhub.im/ax10/bcf9d9e5357143b7/#c=1

【制作教程】

本原型模版主要分成底部背景、欢迎区域、问题列表、对话区域输入区域

1.底部背景

底部背景用矩形和线段制作,如下图所示摆放

图片

2.欢迎区域

欢迎区域包括图标和文字,默认未提问时显示。

图片

3.问题列表

问题列表用中继器制作,中继器里摆放矩形和文本标签,矩形用于显示文字,文本标签用于记录答案,默认不显示。

中继器表格里包含两列,wenti列对应问题,daan列对应答案

图片

如果是Axure10或以上的版本,我们点击表格里的连接元件,选择中继器里的矩形和文本标签,就可以将问题设置到矩形,将答案设置到文本标签;如果是Axure9或以下的版本,就要在中继器每项加载时,通过设置文本的交互,将wenti列和答案列的值设置到对应的元件里。

图片

4.对话区域

对话区域我们用中继器来制作,中继器里需要有两个颜色不同的矩形,蓝色矩形对应我输入的内容,灰色矩形对应机器人的回答

图片

中继器表格里添加两列,who列用来确认是谁说的话,我们定义如果who列的值等于我,那该行内容就是我说的,如果who列的值不等于我,那就是机器人说的。Text列对应具体说的内容。中继器表格里默认为空,如果你想默认展示以前的聊天记录也可以在中继器表格里填写。

图片

在中继器每项加载时,我们需要判断每一行是谁说的,如果who列的值等于我,就是我说的,所以显示蓝色矩形,隐藏灰色矩形;如果who列的值不等于我,就是机器人说的,我们就显示灰色矩形,隐藏蓝色矩形。

图片

然后我们把中继器text列的值都设置到灰色和蓝色的矩形里,我们在中继器每项加载时,用设置文本的交互,将text列的值都设置到两个矩形里即可。 

图片

因为矩形不会自适应宽度和高度,所以这里我们要先定一个宽度的最大值,案例里是850,如果矩形的宽度小于850时,我们设置矩形高度不变,宽度和文字的宽度一样;如果宽度大于850时,我们设置矩形宽度为850,设置高度为文本宽度为850是的高度。

怎么做自适应文本的尺寸,这里我们需要动态面板和锚链接滚动的交互来获取。

图片

具体可以参考我之前的视频教程《自适应文本的输入框》,里面有详细讲解怎么自适应文本的宽度,学习后举一反三得出自适应的高度。

设置矩形的宽度是需要注意,蓝色矩形我的对话的锚点是在右侧,灰色矩形机器人的对话的锚点是在左侧。

最后考虑到对话内容较多时,会超过指定的区域,所以可以把中继器转为动态面板,并调出垂直滚动条。

5.输入区域

输入区域包括矩形、多行输入框,按钮,如下图所示摆放。

图片

发送按钮按下时,我们要先判断文本内容是否为空,如果为空就不操作,如果不为空再进行操作。

首先我们要先把欢迎区域的文字图标组合隐藏,然后把输入框的内容添加到对话记录的中继器里。

图片

考虑到内容较多时,我们先把最新的内容显示出来,所以我们需要动态面板的滚动条滚动到最下方,这里我们需要在对话记录的动态面板内添加一个默认隐藏的元件作为锚点。然后用移动的交互,移动到对话记录中继器的底部,最后用滚动到元件的交互,让动态面板的滚动条滚动到底部元件的位置。

图片

问题问完后,我们要自动回复答案,我们首先对问题列表的中继器进行筛选,筛选出符合条件的答案,这里是通过简单判断,判断中继器表格里wenti列是否包含有输入框里的文本值。

图片

如果有筛选结果,就是中继器筛选后的条数不等于0,我们就用设置文本的交互,将问题的答案,就是在中继器里文本标签的值记录下来,如果等于0,就是没有筛选结果,就是没有找到答案,用设置文本的交互,记录默认的话术,案例中是对不起,目前没有找到该问题相关的知识点,您可以提问右侧问题列表相关的问题,或者在中继器里的添加对应的问题

图片

这样我们记录下了要回答的内容后,用移出筛选的交互,将问题列表还原,并且触发将记录的文本逐字显示。

图片

文本逐字显示,其实就是通过文本提取函数,将文本值逐一提取,先提取第一个,然后是第二个……如此循环,直到最后一个字为止,这里如果不明白的话,可以参考我之前出的视频教程动态文字——输入效果

这里的区别,要在先把第一个字的文本,用添加行的交互添加到对话的中继器里,然后再进入循环依次将23456……直到末尾的字,通过循环判断的方式添加上去。

完成之后,我们要用移动的交互,将动态面板内的锚点元件移动到中继器表格的下方,然后用滚动到元件的交互,让动态面板的滚动条滚动到最下方锚点的位置。

图片

这样我们就完成了AI对话机器人的原型模板了,后续使用也是很方便,问题和答案在中继器表格中填写即可,即可自动生成的交互效果。

以上就是本期教程的全部内容,感谢您的阅读,我们下期见。

Read more

本地多模型切换利器——Llama-Swap全攻略

本地多模型切换利器——Llama-Swap全攻略

运行多个大语言模型(LLM)非常有用: 无论是用于比较模型输出、设置备用方案(当一个模型失败时自动切换)、还是实现行为定制(例如一个模型专注写代码,另一个模型专注技术写作),实践中我们经常以这种方式使用 LLM。 一些应用(如 poe.com)已经提供了多模型运行的平台。但如果你希望完全在本地运行、多省 API 成本,并保证数据隐私,情况就会复杂许多。 问题在于:本地设置通常意味着要处理多个端口、运行不同进程,并且手动切换,不够理想。 这正是 Llama-Swap 要解决的痛点。它是一个超轻量的开源代理服务(仅需一个二进制文件),能够让你轻松在多个本地 LLM 之间切换。简单来说,它会在本地监听 OpenAI 风格的 API 请求,并根据请求的模型名称,自动启动或停止对应的模型服务。客户端无需感知底层切换,使用体验完全透明。 📌 Llama-Swap 工作原理 概念上,Llama-Swap 就像一个智能路由器,

VSCode + Copilot

VSCode + Copilot

1、Copilot的介绍         Git Hub Copilot是一款人工智能协作编程工具,它能帮助我们更快速、更高效地编写代码。 2、Copilot安装 (1)Copilot是以VSCode的插件形式存在,直接搜索下载安装即可。 * 第一次使用时VSCode会自动安装Copilot的插件。 (2)在VSCode中安装Copilot时,会获得两个扩展程序: * GitHub Copilot:在我们输入代码时会提供即时的代码建议。 * GitHub Copilot Char:一款配套插件,可提供基于人工智能的对话式辅助服务。 3、插件配置 (1)插件下载后需要登录账号才能使用,建议登录GitHub账号。 (2)登录GitHub账号可能需要kexue上网。 4、插件功能及使用 (1)代码补全功能。 (2)聊天会话功能。 (3)缺陷:现在可以免费使用,但是有一定的额度。

ChatGPT降AIGC率指令实战指南:从原理到最佳实践

AIGC率:一个开发者必须面对的质量指标 最近在项目里用ChatGPT这类大模型生成内容时,总被一个词困扰——AIGC率。简单来说,它衡量的是生成内容与模型训练数据中已有内容的相似度,或者说“机器味儿”有多浓。对于开发者而言,高AIGC率不仅意味着内容可能缺乏新意、流于模板化,在严肃的应用场景(如知识输出、创意写作、代码生成)中,更可能引发原创性不足、甚至潜在的合规风险。因此,学会通过指令(Prompt)有效控制AIGC率,从“能用”走向“用好”,成了我们进阶路上的必修课。 1. 高AIGC率问题的根源:为什么模型总在“复读”? 要解决问题,先要理解问题从何而来。大语言模型本质上是基于海量数据训练出的概率模型,其生成过程是预测下一个最可能的词元(Token)。这导致了几种常见的高AIGC率诱因: * 指令模糊或过于宽泛:当Prompt如“写一篇关于春天的文章”时,模型极易落入最常见的训练数据模式,产出千篇一律的套话。 * 缺乏具体约束与引导:没有提供独特的视角、具体的细节要求、期望的文体或情感基调,模型没有“

5个关键问题:whisper.cpp语音识别如何快速上手?

5个关键问题:whisper.cpp语音识别如何快速上手? 【免费下载链接】whisper.cpp 项目地址: https://ai.gitcode.com/hf_mirrors/ai-gitcode/whisper.cpp whisper.cpp是一个基于OpenAI Whisper模型的离线语音识别工具,能够将音频文件准确转换为文字内容,支持多种语言识别和多种输出格式,为个人和企业提供高效的语音转文字解决方案。 新手入门:从零开始的一键配置技巧 问题: 如何在5分钟内完成whisper.cpp的环境搭建? 解决方案: 你可以通过以下简单步骤快速开始使用: 1. 下载项目代码:git clone https://gitcode.com/hf_mirrors/ai-gitcode/whisper.cpp 2. 选择合适的模型文件,建议从以下配置开始: * 内存有限:tiny模型(75MB) * 平衡性能:base模型(142MB)