使用trae进行本地ai对话机器人的构建

使用trae进行本地ai对话机器人的构建

前言

在人工智能技术快速发展的今天,构建本地AI对话机器人已成为开发者和技术爱好者的热门选择。使用 trae可以高效地实现这一目标,确保数据隐私和响应速度。本文将详细介绍如何利用 Trae 搭建本地AI对话机器人,涵盖环境配置、模型加载、对话逻辑实现以及优化技巧,帮助读者从零开始构建一个功能完整的AI助手。
本地化AI对话机器人的优势在于完全离线运行,避免网络延迟和数据泄露风险,同时支持自定义训练模型以适应特定场景需求。无论是用于个人助理、客服系统,还是智能家居控制,Trae 都能提供灵活的解决方案。

获取api相关信息

打开蓝耘进行登录,如果你是新人的话需要进行注册操作,输入你相关的信息就能进行注册成功


在平台顶部导航栏可以看到Maas平台,点击进入模型广场

在这里插入图片描述


来到模型广场可以看到很多的ai模型,比如就有我们的kimi k2模型

在这里插入图片描述

点击进去可以看到kimi k2模型的相关信息,我们将模型的id进行复制,等会儿我们是要用到的
/maas/kimi/Kimi-K2-Instruct

在这里插入图片描述


并且这里还具有在线体验的功能,生成回答速度快

在这里插入图片描述


https://archive.lanyun.net/#/maas/%E6%96%87%E6%9C%AC%E6%A8%A1%E5%9E%8BAPI这里还有详细的api调用方法,我们这里使用python进行调用,这里可以看到我们框出来的两个变量,等调用的时候我们是需要进行更改的,model我们填写/maas/kimi/Kimi-K2-Instruct

在这里插入图片描述


api我们在Maas平台首页的api创建页就能进行生成

在这里插入图片描述


固然示例代码如下:

from openai import OpenAI # 构造 client client = OpenAI( api_key="sk-xxxxxxxxxxx", # APIKey base_url="https://maas-api.lanyun.net/v1", ) # 流式 stream = True # 请求 chat_completion = client.chat.completions.create( model="/maas/kimi/Kimi-K2-Instruct", messages=[ { "role": "user", "content": "你是谁", } ], stream=stream, ) if stream: for chunk in chat_completion: # 打印思维链内容 if hasattr(chunk.choices[0].delta, 'reasoning_content'): print(f"{chunk.choices[0].delta.reasoning_content}",) # 打印模型最终返回的content if hasattr(chunk.choices[0].delta, 'content'): if chunk.choices[0].delta.content != None and len(chunk.choices[0].delta.content) != 0: print(chunk.choices[0].delta.content,) else: result = chat_completion.choices[0].message.content 

使用trae进行实战

在获取到了调用的示例代码之后我们就可以让ai帮我们生成对应的程序了
打开trae,将我们的需求写入到README文件中,效果如下:

在这里插入图片描述

接下来我们就可以开始进行提问了,如果你们有其他新鲜的想法都是可以写到这个README文件中的,这里他是给我们生成一个网页端的

在这里插入图片描述


我们这里首先得先进行代码依赖的安装操作

在这里插入图片描述
Flask==2.3.3 openai==1.3.0 Werkzeug==2.3.7 

在终端输入命令将文件中对应的依赖进行安装

pip install -r requirements.txt 

然后我们运行对应的文件,效果如下

在这里插入图片描述


可以在终端输入命令

python simple_server.py 

这样我们就能在网页端进行体验了,在本机的8080端口开放

  • 主要地址 : http://localhost:8000/index.html
  • 服务器地址 : http://localhost:8000

这里我们可以在终端看到我们的程序是正常运行的,但是因为favicon.ico导致了报错现象,所以我们让ai改改代码忽略下这个文件

在这里插入图片描述


修改后的效果如下:

在这里插入图片描述


后期稍微把生成的效果格式改改就差不多了,有一说一这个生成的速度还是很快的

总结

蓝耘深刻理解到了企业在智能化转型中的痛点:部署难、成本高、效率低。蓝耘以极致的易用性卓越的性价比破局而来!平台界面非常的清晰直观,功能模块化设计,让非技术背景的人员也能轻松驾驭AI的力量,大幅降低技术门槛。同时,其智能化的资源管理和弹性伸缩能力,进一步确保了每一分投入都精准高效,显著降本增效,加速业务价值落地。蓝耘致力于打破技术鸿沟,让先进的算力与智能如同水电般触手可及。

在蓝耘,通过 trae 构建本地AI对话机器人不仅能提升技术能力,还能深入理解自然语言处理和机器学习模型的底层逻辑。本文详细介绍了环境搭建、模型集成、交互逻辑设计等关键步骤,帮助开发者快速实现本地化AI对话应用。

最后,希望本文能为读者提供清晰的指引,助力实现更强大的本地AI应用。如果有任何问题或改进建议,欢迎进一步交流探讨!

Read more

DeepSeek V4正式发布!与Gemini 3.1 Pro深度评测:中国开源力量与美国闭源巅峰的正面交锋

DeepSeek V4正式发布!与Gemini 3.1 Pro深度评测:中国开源力量与美国闭源巅峰的正面交锋

2026年3月第一周,中国AI圈期待已久的DeepSeek V4正式发布,与此前两周谷歌推出的Gemini 3.1 Pro形成正面交锋。这不仅是两款旗舰模型的同期竞技,更是中国开源力量与美国闭源巅峰的技术路线对决:DeepSeek V4以“原生多模态+国产芯片深度适配+极致成本控制”杀入战场,而Gemini 3.1 Pro则以“ARC-AGI-2 77.1%推理断层领先+三层思考模式+幻觉抗性跃升”巩固护城河。本文从基准测试、核心架构、多模态能力、成本策略四大维度进行深度技术拆解,为开发者和AI爱好者提供硬核参考。 国内用户可通过聚合镜像平台RskAi(ai.rsk.cn)直接体验Gemini 3.1 Pro,同时等待DeepSeek V4的镜像接入,形成双模型布局——一个应对深度复杂推理,一个满足高性价比国产需求。 一、发布动态:时间线与战略意图 关键信号:DeepSeek V4打破了AI行业长期惯例—

By Ne0inhk
Windows环境Git安装教程(下载Git安装包、安装Git、验证Git是否安装成功、设置名字和邮箱)

Windows环境Git安装教程(下载Git安装包、安装Git、验证Git是否安装成功、设置名字和邮箱)

文章目录 * 1. 下载Git安装包 * 1.1 通过清华大学开源软件镜像站下载(推荐) * 1.2 通过Git官网下载 * 1.3 通过联想电脑管家下载 * 2. 安装Git(一路点击Next即可) * 3. 验证Git是否安装成功 * 4. 设置个人信息(名字和邮箱) 1. 下载Git安装包 1.1 通过清华大学开源软件镜像站下载(推荐) 下载地址:https://mirrors.tuna.tsinghua.edu.cn/github-release/git-for-windows/git/ https://mirrors.tuna.tsinghua.edu.cn/github-release/git-for-windows/git/ 点击 LatestRelease/ 目录 下载

By Ne0inhk
ORIN+FPGA高速采集AI智能处理板

ORIN+FPGA高速采集AI智能处理板

一、设计初衷 为什么要设计一款ORIN+FPGA的板卡呢,我们在跟客户交流的过程中发现,客户的需求是多方面的,痛点和烦恼也是各种各样。略举几个例子。 案例1:在钢铁厂做机器视觉的客户反映,基于PC机加显卡的检测方案,不仅成本高,体积大,关键是那种场合温度比较高,有时会出现死机的现象,虽不频繁,一个月出现一两次。很堵心。 案例2:在矿山做皮带撕裂检测,空间很狭窄,放一台PC机很困难,放一台小的没法插显卡,没显卡GPU加速,算力不足,检测算法只能简化,效果不理想,另外关键是那种场合温度湿度都很大,尤其是灰尘,导致设备经常出问题,出问题最多的就是内存和显卡,千奇百怪,苦不堪言。 案例3:无人机应用,我问客户,为什么不用RK3588+FPGA的方案,客户说,RK3588的6T的算力太低了,相对与Coaxpress接口,6500万像素的相机,RK3588+FPGA的方案,是既采集不进去,算力也不够,还是Orin nx 16G 157T的算力,

By Ne0inhk

阿里又开源了一个顶级Java项目!AgentScope

阿里又开源了一个顶级Java项目!AgentScope:重塑AI智能体开发范式 一、打破生态壁垒:Java 开发者的 AI 智能体福音 在 AI 原生应用爆发的今天,多智能体框架成为企业级开发的核心基础设施。阿里云近期开源的AgentScope Java 版,彻底打破了 Python 在 AI 框架领域的垄断,让数百万 Java 开发者无需切换生态,就能原生构建高可用、分布式的智能体应用。作为阿里巴巴战略级开源项目,AgentScope 不仅实现了 Java 与 Python 版本的核心能力完全对齐,更针对企业级场景进行了 Serverless 化优化,成为 Java 生态首个生产级多智能体框架。 二、核心定位:不止是框架,更是 AI 的 “中枢神经系统” 如果说大语言模型(LLM)是 AI

By Ne0inhk