使用trae进行本地ai对话机器人的构建

使用trae进行本地ai对话机器人的构建

前言

在人工智能技术快速发展的今天,构建本地AI对话机器人已成为开发者和技术爱好者的热门选择。使用 trae可以高效地实现这一目标,确保数据隐私和响应速度。本文将详细介绍如何利用 Trae 搭建本地AI对话机器人,涵盖环境配置、模型加载、对话逻辑实现以及优化技巧,帮助读者从零开始构建一个功能完整的AI助手。
本地化AI对话机器人的优势在于完全离线运行,避免网络延迟和数据泄露风险,同时支持自定义训练模型以适应特定场景需求。无论是用于个人助理、客服系统,还是智能家居控制,Trae 都能提供灵活的解决方案。

获取api相关信息

打开蓝耘进行登录,如果你是新人的话需要进行注册操作,输入你相关的信息就能进行注册成功


在平台顶部导航栏可以看到Maas平台,点击进入模型广场

在这里插入图片描述


来到模型广场可以看到很多的ai模型,比如就有我们的kimi k2模型

在这里插入图片描述

点击进去可以看到kimi k2模型的相关信息,我们将模型的id进行复制,等会儿我们是要用到的
/maas/kimi/Kimi-K2-Instruct

在这里插入图片描述


并且这里还具有在线体验的功能,生成回答速度快

在这里插入图片描述


https://archive.lanyun.net/#/maas/%E6%96%87%E6%9C%AC%E6%A8%A1%E5%9E%8BAPI这里还有详细的api调用方法,我们这里使用python进行调用,这里可以看到我们框出来的两个变量,等调用的时候我们是需要进行更改的,model我们填写/maas/kimi/Kimi-K2-Instruct

在这里插入图片描述


api我们在Maas平台首页的api创建页就能进行生成

在这里插入图片描述


固然示例代码如下:

from openai import OpenAI # 构造 client client = OpenAI( api_key="sk-xxxxxxxxxxx", # APIKey base_url="https://maas-api.lanyun.net/v1", ) # 流式 stream = True # 请求 chat_completion = client.chat.completions.create( model="/maas/kimi/Kimi-K2-Instruct", messages=[ { "role": "user", "content": "你是谁", } ], stream=stream, ) if stream: for chunk in chat_completion: # 打印思维链内容 if hasattr(chunk.choices[0].delta, 'reasoning_content'): print(f"{chunk.choices[0].delta.reasoning_content}",) # 打印模型最终返回的content if hasattr(chunk.choices[0].delta, 'content'): if chunk.choices[0].delta.content != None and len(chunk.choices[0].delta.content) != 0: print(chunk.choices[0].delta.content,) else: result = chat_completion.choices[0].message.content 

使用trae进行实战

在获取到了调用的示例代码之后我们就可以让ai帮我们生成对应的程序了
打开trae,将我们的需求写入到README文件中,效果如下:

在这里插入图片描述

接下来我们就可以开始进行提问了,如果你们有其他新鲜的想法都是可以写到这个README文件中的,这里他是给我们生成一个网页端的

在这里插入图片描述


我们这里首先得先进行代码依赖的安装操作

在这里插入图片描述
Flask==2.3.3 openai==1.3.0 Werkzeug==2.3.7 

在终端输入命令将文件中对应的依赖进行安装

pip install -r requirements.txt 

然后我们运行对应的文件,效果如下

在这里插入图片描述


可以在终端输入命令

python simple_server.py 

这样我们就能在网页端进行体验了,在本机的8080端口开放

  • 主要地址 : http://localhost:8000/index.html
  • 服务器地址 : http://localhost:8000

这里我们可以在终端看到我们的程序是正常运行的,但是因为favicon.ico导致了报错现象,所以我们让ai改改代码忽略下这个文件

在这里插入图片描述


修改后的效果如下:

在这里插入图片描述


后期稍微把生成的效果格式改改就差不多了,有一说一这个生成的速度还是很快的

总结

蓝耘深刻理解到了企业在智能化转型中的痛点:部署难、成本高、效率低。蓝耘以极致的易用性卓越的性价比破局而来!平台界面非常的清晰直观,功能模块化设计,让非技术背景的人员也能轻松驾驭AI的力量,大幅降低技术门槛。同时,其智能化的资源管理和弹性伸缩能力,进一步确保了每一分投入都精准高效,显著降本增效,加速业务价值落地。蓝耘致力于打破技术鸿沟,让先进的算力与智能如同水电般触手可及。

在蓝耘,通过 trae 构建本地AI对话机器人不仅能提升技术能力,还能深入理解自然语言处理和机器学习模型的底层逻辑。本文详细介绍了环境搭建、模型集成、交互逻辑设计等关键步骤,帮助开发者快速实现本地化AI对话应用。

最后,希望本文能为读者提供清晰的指引,助力实现更强大的本地AI应用。如果有任何问题或改进建议,欢迎进一步交流探讨!

Read more

【论文阅读】LW-CTrans: A lightweight hybrid network of CNN and Transformer for 3D medical image segmentati

【论文阅读】LW-CTrans: A lightweight hybrid network of CNN and Transformer for 3D medical image segmentati

论文链接:https://www.sciencedirect.com/science/article/pii/S1361841525000921 Code: https://github.com/hulinkuang/LW-CTrans 来源: Medical Image Analysis 摘要: 背景与动机 * 现状: 近期基于卷积神经网络(CNN)和Transformer的模型在3D医学图像分割领域取得了很有希望的性能。 * 问题: 然而,即使这些模型参数量很大,它们在 分割微小目标(small targets/lesions) 方面表现不佳。 * 目标: 因此,作者设计了一种新颖的轻量级混合网络,名为LW-CTrans,它结合了CNN和Transformer的优势,并且能够在不同阶段提升网络的全局(Transformer的长程依赖捕获能力)和局部(CNN的细节捕获能力)表征能力。 核心模块与架构 LW-CTrans主要包括一个混合编码器(Hybrid Encoder)和一个轻量级解码器(Decoder)

Llama-3.2-3B效果实测:Ollama部署对比Qwen2-1.5B在摘要任务中的BLEU提升

Llama-3.2-3B效果实测:Ollama部署对比Qwen2-1.5B在摘要任务中的BLEU提升 1. 为什么这次实测值得你花三分钟看完 你是不是也遇到过这样的问题:手头有个长文档要压缩成一段精炼摘要,但试了几个开源小模型,要么漏掉关键信息,要么生成内容啰嗦重复,甚至把原文意思都改了?我最近也卡在这个环节很久——直到把Llama-3.2-3B和Qwen2-1.5B放在同一套Ollama环境里,用完全相同的测试集、提示词和评估方式跑了一轮摘要任务。 结果很意外:Llama-3.2-3B的BLEU-4分数比Qwen2-1.5B高出6.8分(从32.1到38.9),而且生成内容更紧凑、事实一致性更强。这不是理论值,是我在本地MacBook Pro M2上实打实跑出来的数据。整套流程不需要GPU,不装Docker,不用写一行训练代码,只靠Ollama一条命令就能启动服务。 这篇文章不讲参数、不聊架构,就带你走一遍:怎么用Ollama快速拉起两个模型、怎么设计公平的摘要测试、怎么用Python脚本自动算BLEU、以及最关键的——哪些场景下Llama-3.2-3B真的比Qwen2-1

FLUX.1-dev创意工作流:从Midjourney迁移指南+Prompt工程适配最佳实践

FLUX.1-dev创意工作流:从Midjourney迁移指南+Prompt工程适配最佳实践 如果你是从Midjourney转向本地部署的创作者,或者正在寻找一个画质顶尖、永不崩溃的AI绘图方案,那么这篇文章就是为你准备的。 Midjourney以其出色的艺术表现力,成为了许多人的AI绘图启蒙工具。但你是否也遇到过这些问题:生成次数有限制、排队等待时间长、无法深度定制生成参数、或者对生成内容的隐私性有顾虑?当你的创作需求从“玩一玩”升级到“生产力”时,一个稳定、私密、可控的本地化方案就显得尤为重要。 今天,我们将深入探讨如何将你的创意工作流,从Midjourney平滑迁移到FLUX.1-dev旗舰版。这不仅仅是一个工具替换,更是一次创作能力的全面升级。我们将重点解决两个核心问题:如何快速上手这个强大的本地系统,以及如何将你熟悉的Midjourney Prompt技巧,完美适配到FLUX模型上,让你无缝衔接,甚至获得更惊艳的成果。 1. 为什么选择FLUX.1-dev作为你的下一站? 在深入迁移细节之前,我们先来了解一下这个“新家”到底强在哪里。你拿到的这个FLUX.1-de

虚拟世界的AI魔法:AIGC引领元宇宙创作革命

虚拟世界的AI魔法:AIGC引领元宇宙创作革命

云边有个稻草人-ZEEKLOG博客——个人主页 热门文章_云边有个稻草人的博客-ZEEKLOG博客——本篇文章所属专栏 ~ 欢迎订阅~ 目录 1. 引言 2. 元宇宙与虚拟世界概述 2.1 什么是元宇宙? 2.2 虚拟世界的构建 3. AIGC在元宇宙中的应用 3.1 AIGC生成虚拟世界环境 3.2 AIGC生成虚拟角色与NPC 3.3 AIGC创造虚拟物品与资产 4. AIGC在虚拟世界与元宇宙的技术实现 4.1 生成式对抗网络(GANs)在元宇宙中的应用 4.2 自然语言处理(NLP)与虚拟角色的对话生成 4.3 计算机视觉与物理引擎 5. 持续创新:AIGC与元宇宙的未来趋势 5.1 个人化与定制化体验 5.