使用trae进行本地ai对话机器人的构建

使用trae进行本地ai对话机器人的构建

前言

在人工智能技术快速发展的今天,构建本地AI对话机器人已成为开发者和技术爱好者的热门选择。使用 trae可以高效地实现这一目标,确保数据隐私和响应速度。本文将详细介绍如何利用 Trae 搭建本地AI对话机器人,涵盖环境配置、模型加载、对话逻辑实现以及优化技巧,帮助读者从零开始构建一个功能完整的AI助手。
本地化AI对话机器人的优势在于完全离线运行,避免网络延迟和数据泄露风险,同时支持自定义训练模型以适应特定场景需求。无论是用于个人助理、客服系统,还是智能家居控制,Trae 都能提供灵活的解决方案。

获取api相关信息

打开蓝耘进行登录,如果你是新人的话需要进行注册操作,输入你相关的信息就能进行注册成功


在平台顶部导航栏可以看到Maas平台,点击进入模型广场

在这里插入图片描述


来到模型广场可以看到很多的ai模型,比如就有我们的kimi k2模型

在这里插入图片描述

点击进去可以看到kimi k2模型的相关信息,我们将模型的id进行复制,等会儿我们是要用到的
/maas/kimi/Kimi-K2-Instruct

在这里插入图片描述


并且这里还具有在线体验的功能,生成回答速度快

在这里插入图片描述


https://archive.lanyun.net/#/maas/%E6%96%87%E6%9C%AC%E6%A8%A1%E5%9E%8BAPI这里还有详细的api调用方法,我们这里使用python进行调用,这里可以看到我们框出来的两个变量,等调用的时候我们是需要进行更改的,model我们填写/maas/kimi/Kimi-K2-Instruct

在这里插入图片描述


api我们在Maas平台首页的api创建页就能进行生成

在这里插入图片描述


固然示例代码如下:

from openai import OpenAI # 构造 client client = OpenAI( api_key="sk-xxxxxxxxxxx", # APIKey base_url="https://maas-api.lanyun.net/v1", ) # 流式 stream = True # 请求 chat_completion = client.chat.completions.create( model="/maas/kimi/Kimi-K2-Instruct", messages=[ { "role": "user", "content": "你是谁", } ], stream=stream, ) if stream: for chunk in chat_completion: # 打印思维链内容 if hasattr(chunk.choices[0].delta, 'reasoning_content'): print(f"{chunk.choices[0].delta.reasoning_content}",) # 打印模型最终返回的content if hasattr(chunk.choices[0].delta, 'content'): if chunk.choices[0].delta.content != None and len(chunk.choices[0].delta.content) != 0: print(chunk.choices[0].delta.content,) else: result = chat_completion.choices[0].message.content 

使用trae进行实战

在获取到了调用的示例代码之后我们就可以让ai帮我们生成对应的程序了
打开trae,将我们的需求写入到README文件中,效果如下:

在这里插入图片描述

接下来我们就可以开始进行提问了,如果你们有其他新鲜的想法都是可以写到这个README文件中的,这里他是给我们生成一个网页端的

在这里插入图片描述


我们这里首先得先进行代码依赖的安装操作

在这里插入图片描述
Flask==2.3.3 openai==1.3.0 Werkzeug==2.3.7 

在终端输入命令将文件中对应的依赖进行安装

pip install -r requirements.txt 

然后我们运行对应的文件,效果如下

在这里插入图片描述


可以在终端输入命令

python simple_server.py 

这样我们就能在网页端进行体验了,在本机的8080端口开放

  • 主要地址 : http://localhost:8000/index.html
  • 服务器地址 : http://localhost:8000

这里我们可以在终端看到我们的程序是正常运行的,但是因为favicon.ico导致了报错现象,所以我们让ai改改代码忽略下这个文件

在这里插入图片描述


修改后的效果如下:

在这里插入图片描述


后期稍微把生成的效果格式改改就差不多了,有一说一这个生成的速度还是很快的

总结

蓝耘深刻理解到了企业在智能化转型中的痛点:部署难、成本高、效率低。蓝耘以极致的易用性卓越的性价比破局而来!平台界面非常的清晰直观,功能模块化设计,让非技术背景的人员也能轻松驾驭AI的力量,大幅降低技术门槛。同时,其智能化的资源管理和弹性伸缩能力,进一步确保了每一分投入都精准高效,显著降本增效,加速业务价值落地。蓝耘致力于打破技术鸿沟,让先进的算力与智能如同水电般触手可及。

在蓝耘,通过 trae 构建本地AI对话机器人不仅能提升技术能力,还能深入理解自然语言处理和机器学习模型的底层逻辑。本文详细介绍了环境搭建、模型集成、交互逻辑设计等关键步骤,帮助开发者快速实现本地化AI对话应用。

最后,希望本文能为读者提供清晰的指引,助力实现更强大的本地AI应用。如果有任何问题或改进建议,欢迎进一步交流探讨!

Read more

前端文本测量成了卡死一切创新的最后瓶颈,pretext实现突破了

前端文本测量成了卡死一切创新的最后瓶颈,pretext实现突破了

亲爱的前端开发者(以及所有关心界面未来的人),我最近把大量精力砸进了一个听起来小众、实则能重塑整个网页布局范式的项目。过去几年,我们一直在抱怨 CSS 强大却难以捉摸,DOM 测量方便却代价高昂。尤其在 AI 时代,界面需要动态、响应式、甚至上万元素同时运行时,文本测量成了卡死一切创新的最后瓶颈——它既是基础,又是地狱。 现在,这个瓶颈被彻底攻破了。我发现了一个开源纯 TypeScript 的用户态文本测量引擎,名叫 Pretext。它不需要 CSS、不依赖 DOM 测量,就能精准计算任意文本在任意宽度下的排版结果,支持整个网页的完整布局。体积只有几 KB,却能处理浏览器所有怪癖,支持全球语言(包括韩文混排 RTL 阿拉伯文和平台表情),还能轻松跑出 120fps 的复杂交互。 看效果 TypeScript 的用户态文本测量引擎,名叫 Prete 很多人以为 CSS

前端异常捕获与统一格式化:从 console.log(error) 到服务端上报

前端异常捕获与统一格式化:从 console.log(error) 到服务端上报

🧑 博主简介:ZEEKLOG博客专家,「历代文学网」(公益文学网,PC端可以访问:https://lidaiwenxue.com/#/?__c=1000,移动端可关注公众号 “ 心海云图 ” 微信小程序搜索“历代文学”)总架构师,首席架构师,也是联合创始人!16年工作经验,精通Java编程,高并发设计,分布式系统架构设计,Springboot和微服务,熟悉Linux,ESXI虚拟化以及云原生Docker和K8s,热衷于探索科技的边界,并将理论知识转化为实际应用。保持对新技术的好奇心,乐于分享所学,希望通过我的实践经历和见解,启发他人的创新思维。在这里,我希望能与志同道合的朋友交流探讨,共同进步,一起在技术的世界里不断学习成长。 🤝商务合作:请搜索或扫码关注微信公众号 “ 心海云图 ” 前端异常捕获与统一格式化:从 console.log(error) 到服务端上报 引言 在前端开发中,异常监控是保证应用稳定性的重要一环。当用户遇到页面白屏、功能不可用等问题时,如果能及时收集到详细的错误信息(包括堆栈、

AI 时代,前端逆向的门槛已经低到离谱 — 以 Upwork 为例

我用 AI 逆向 Upwork 消息系统,2小时搞定数据层开发 前言 作为 Upwork 自由职业者,我一直觉得它的消息管理界面信息量太大,不够直观。我想做一个 Chrome 插件来简化消息管理,核心需求很简单:一眼看出哪些对话需要我回复,哪些在等对方。 传统做法是下载混淆后的 JS 文件慢慢分析,但这次我决定换个思路——全程和 AI 配合,看看能多快搞定。 结果远超预期。从零开始到完全摸清 API、认证方式、数据结构,总共不到 2 小时。 第一步:摸清技术栈(5分钟) 打开 Upwork 消息页面,F12 看 Sources 面板,从加载的 JS 文件名就能判断出技术栈: ThunderNuxt/rooms.fdb6ff58.

深入理解前端防抖(Debounce)与节流(Throttle):原理、区别与实战示例

深入理解前端防抖(Debounce)与节流(Throttle):原理、区别与实战示例

深入理解前端防抖(Debounce)与节流(Throttle):原理、区别与实战示例 📌 引言 在前端开发中,我们经常需要处理高频事件(如输入框输入、滚动、窗口调整大小等)。如果不加限制,浏览器会频繁触发回调函数,导致性能问题,甚至页面卡顿。 防抖(Debounce) 和 节流(Throttle) 是两种优化方案,可以有效控制事件触发的频率,提高应用的性能和用户体验。 本篇文章将详细解析 防抖和节流的原理、适用场景及代码实现,帮助你更好地优化前端应用。 1. 什么是防抖(Debounce)? 📝 概念 防抖是一种在事件触发后延迟执行的技术,如果在延迟期间事件被再次触发,计时器会重置,重新计算延迟时间。 核心思想:短时间内多次触发,只执行最后一次。 📌 适用场景 * 搜索框输入(防止用户每次输入都发送请求) * 窗口调整大小(resize)(防止短时间内多次触发计算) * 表单输入验证(用户停止输入后再进行验证) ✅ 代码实现 functiondebounce(fn,