使用trae进行本地ai对话机器人的构建

使用trae进行本地ai对话机器人的构建

前言

在人工智能技术快速发展的今天,构建本地AI对话机器人已成为开发者和技术爱好者的热门选择。使用 trae可以高效地实现这一目标,确保数据隐私和响应速度。本文将详细介绍如何利用 Trae 搭建本地AI对话机器人,涵盖环境配置、模型加载、对话逻辑实现以及优化技巧,帮助读者从零开始构建一个功能完整的AI助手。
本地化AI对话机器人的优势在于完全离线运行,避免网络延迟和数据泄露风险,同时支持自定义训练模型以适应特定场景需求。无论是用于个人助理、客服系统,还是智能家居控制,Trae 都能提供灵活的解决方案。

获取api相关信息

打开蓝耘进行登录,如果你是新人的话需要进行注册操作,输入你相关的信息就能进行注册成功


在平台顶部导航栏可以看到Maas平台,点击进入模型广场

在这里插入图片描述


来到模型广场可以看到很多的ai模型,比如就有我们的kimi k2模型

在这里插入图片描述

点击进去可以看到kimi k2模型的相关信息,我们将模型的id进行复制,等会儿我们是要用到的
/maas/kimi/Kimi-K2-Instruct

在这里插入图片描述


并且这里还具有在线体验的功能,生成回答速度快

在这里插入图片描述


https://archive.lanyun.net/#/maas/%E6%96%87%E6%9C%AC%E6%A8%A1%E5%9E%8BAPI这里还有详细的api调用方法,我们这里使用python进行调用,这里可以看到我们框出来的两个变量,等调用的时候我们是需要进行更改的,model我们填写/maas/kimi/Kimi-K2-Instruct

在这里插入图片描述


api我们在Maas平台首页的api创建页就能进行生成

在这里插入图片描述


固然示例代码如下:

from openai import OpenAI # 构造 client client = OpenAI( api_key="sk-xxxxxxxxxxx", # APIKey base_url="https://maas-api.lanyun.net/v1", ) # 流式 stream = True # 请求 chat_completion = client.chat.completions.create( model="/maas/kimi/Kimi-K2-Instruct", messages=[ { "role": "user", "content": "你是谁", } ], stream=stream, ) if stream: for chunk in chat_completion: # 打印思维链内容 if hasattr(chunk.choices[0].delta, 'reasoning_content'): print(f"{chunk.choices[0].delta.reasoning_content}",) # 打印模型最终返回的content if hasattr(chunk.choices[0].delta, 'content'): if chunk.choices[0].delta.content != None and len(chunk.choices[0].delta.content) != 0: print(chunk.choices[0].delta.content,) else: result = chat_completion.choices[0].message.content 

使用trae进行实战

在获取到了调用的示例代码之后我们就可以让ai帮我们生成对应的程序了
打开trae,将我们的需求写入到README文件中,效果如下:

在这里插入图片描述

接下来我们就可以开始进行提问了,如果你们有其他新鲜的想法都是可以写到这个README文件中的,这里他是给我们生成一个网页端的

在这里插入图片描述


我们这里首先得先进行代码依赖的安装操作

在这里插入图片描述
Flask==2.3.3 openai==1.3.0 Werkzeug==2.3.7 

在终端输入命令将文件中对应的依赖进行安装

pip install -r requirements.txt 

然后我们运行对应的文件,效果如下

在这里插入图片描述


可以在终端输入命令

python simple_server.py 

这样我们就能在网页端进行体验了,在本机的8080端口开放

  • 主要地址 : http://localhost:8000/index.html
  • 服务器地址 : http://localhost:8000

这里我们可以在终端看到我们的程序是正常运行的,但是因为favicon.ico导致了报错现象,所以我们让ai改改代码忽略下这个文件

在这里插入图片描述


修改后的效果如下:

在这里插入图片描述


后期稍微把生成的效果格式改改就差不多了,有一说一这个生成的速度还是很快的

总结

蓝耘深刻理解到了企业在智能化转型中的痛点:部署难、成本高、效率低。蓝耘以极致的易用性卓越的性价比破局而来!平台界面非常的清晰直观,功能模块化设计,让非技术背景的人员也能轻松驾驭AI的力量,大幅降低技术门槛。同时,其智能化的资源管理和弹性伸缩能力,进一步确保了每一分投入都精准高效,显著降本增效,加速业务价值落地。蓝耘致力于打破技术鸿沟,让先进的算力与智能如同水电般触手可及。

在蓝耘,通过 trae 构建本地AI对话机器人不仅能提升技术能力,还能深入理解自然语言处理和机器学习模型的底层逻辑。本文详细介绍了环境搭建、模型集成、交互逻辑设计等关键步骤,帮助开发者快速实现本地化AI对话应用。

最后,希望本文能为读者提供清晰的指引,助力实现更强大的本地AI应用。如果有任何问题或改进建议,欢迎进一步交流探讨!

Read more

ChatGPT免费版与微软Copilot深度对比:技术选型与新手避坑指南

作为一名开发者,最近在项目里想集成一个AI助手,面对市面上眼花缭乱的选择,尤其是免费的ChatGPT和微软力推的Copilot,到底该选哪个?这确实是个让人纠结的问题。我花了一些时间,从技术实现、实际调用到性能表现,做了一次比较深入的对比和测试,希望能给同样有选择困难的朋友们一些参考。 1. 市场定位与典型场景:它们各自擅长什么? 简单来说,你可以把ChatGPT免费版看作一个“通用型对话专家”,而微软Copilot更像一个“深度集成在微软生态里的专业副驾驶”。 * ChatGPT免费版:它的核心优势在于强大的通用对话和文本生成能力。无论是头脑风暴、撰写邮件、学习新概念,还是进行开放式的创意讨论,它都能提供质量不错的回应。对于开发者而言,它非常适合用于: * 学习新技术:解释复杂的编程概念或算法。 * 代码解释与重构:将一段代码丢给它,让它解释逻辑或提出优化建议。 * 生成示例代码:根据自然语言描述,快速生成某个功能的代码片段原型。 * 微软Copilot:它的设计初衷就是提升开发和生产效率,与Visual Studio Code、GitHub、Micros

不止脑洞!移动云AIGC大赛正式启幕

不止脑洞!移动云AIGC大赛正式启幕

未来,是什么样子的? 是穿梭云端的智慧城市 还是人与AI共舞的创意工坊? 是赛博街区的霓虹闪烁 还是治愈系森林里的数字精灵? 当生活插上科技的翅膀 从智慧城市的精细运转 到数字生活的便捷体验 每一份改变世界的想象力 都值得被AI托举 这一次,我们诚挚邀请你—— 把你脑海中的“智能新空间”变成现实 用移动云做创作引擎 发挥最天马行空的创想 让想象力不再停留于脑海 让创意被看见、被喝彩、被珍藏 十大创作主题:为你的灵感指明方向 本次大赛围绕移动云赋能的重点行业,设置十大创作主题: 请从以上主题中选择你感兴趣的方向进行创作 描绘你心中的智能新空间。 *超出以上主题范围的作品,将不纳入本次大赛评选。 三步快速参与 从灵感到作品,从作品到出圈 STP1:一键上云·灵感即现 选择你感兴趣的主题方向 进入移动云绘制心中的“智能新空间” 畅想千行百业的数智体验 STEP2:云端晒作,即刻破圈 作品出炉?即刻分享!任选一种方式让创意出圈 带话题#移动云智能新空间AIGC大赛# 发微博/抖音并@

Flutter 三方库 eth_sig_util 的鸿蒙化适配指南 - 掌握以太坊加密签名核心技术、助力鸿蒙端 Web3 钱包与去中心化身份验证应用开发

Flutter 三方库 eth_sig_util 的鸿蒙化适配指南 - 掌握以太坊加密签名核心技术、助力鸿蒙端 Web3 钱包与去中心化身份验证应用开发

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 eth_sig_util 的鸿蒙化适配指南 - 掌握以太坊加密签名核心技术、助力鸿蒙端 Web3 钱包与去中心化身份验证应用开发 前言 在 OpenHarmony 鸿蒙应用的 Web3 浪潮中,安全性是应用生死存亡的关键。无论是构建非托管钱包、登录去中心化应用(dApp),还是执行 EIP-712 结构化数据的确认,都离不开严谨的以太坊签名与加密协议。eth_sig_util 作为一个专门针对以太坊签名习惯优化的 Dart 工具库,支持 personal_sign、signTypedData 以及公钥恢复等核心算法。本文将指导你如何在鸿蒙端集成 eth_sig_util,构建一套符合全球标准的加密验证体系。 一、原原理分析 / 概念介绍 1.

NavRL实战:如何用PPO算法在NVIDIA Isaac Sim中训练无人机避障模型(附GitHub代码)

NavRL实战:如何用PPO算法在NVIDIA Isaac Sim中训练无人机避障模型(附GitHub代码) 无人机在复杂动态环境中的自主导航一直是工业界和学术界的研究热点。传统基于规则的方法在面对未知障碍物时往往表现不佳,而强化学习技术为解决这一问题提供了新思路。本文将手把手教你如何利用开源NavRL框架,在NVIDIA Isaac Sim环境中复现基于PPO算法的无人机避障模型训练过程。 1. 环境配置与基础准备 在开始训练前,我们需要搭建完整的开发环境。NavRL框架主要依赖NVIDIA Isaac Sim作为仿真平台,这是一个专为机器人学习设计的高性能模拟器。 硬件要求: * GPU:NVIDIA RTX 3060及以上(建议显存≥8GB) * 内存:32GB及以上 * 存储:至少50GB可用空间(用于存放仿真环境) 软件依赖安装: # 创建conda环境 conda create -n navrl python=3.8 conda activate navrl # 安装基础依赖 pip install torch==1.12.