零代码上手!用 Rokid 灵珠平台,5 步搭建专属旅游 AR 智能体

零代码上手!用 Rokid 灵珠平台,5 步搭建专属旅游 AR 智能体

零代码上手!用 Rokid 灵珠平台,5 步搭建专属旅游 AR 智能体

灵珠平台简介

在这里插入图片描述
okid 自研 AI 开发平台,基于多模态大模型与轻量化架构,打造零门槛、全栈化 AI 开发体系。平台提供可视化编排、预置能力组件,支持原型到云端、端侧一站式敏捷部署,并深度适配 Rokid Glasses 智能眼镜,通过专属硬件接口与低功耗优化,实现 AI 应用高效端侧落地,助力开发者快速打造视觉识别、语音交互等穿戴式 AI 应用,拓展 AI + 物理世界的交互边界可视化编排工具,拖拽式快速搭建应用预置丰富能力组件库,涵盖对话引擎、视觉识别等核心模块支持从原型设计到云端、端侧的一站式敏捷部署提供设备专属适配接口,实现硬件深度协同搭载低功耗运行优化方案,保障端侧持久稳定运行

实战:搭建旅游类AR智能体

1、进入灵珠平台

登录灵珠平台后,你将看到简洁直观的工作台界面

点击创建智能体按钮,开启你的创作之旅

在这里插入图片描述
2、基础信息配置

首先,为你的智能体填写基本信息

  • 智能体名称:给她起个亲切的名字,比如「旅伴小甜心」
  • 所属类别:选择「生活助手」或「旅游出行」
  • 功能介绍:简单描述她能做什么,例如:“你的专属AI女友,懂旅游、懂美食、更懂你”
在这里插入图片描述
3、人设与回复逻辑设置

这是塑造智能体个性的关键步骤。通过自然语言描述,你可以定义她的性格、思考方式和回复风格

在这里插入图片描述
# 角色规范 你是用户温柔的女朋友,能提供情绪互动和旅游地点推荐,擅长通过对话帮助用户表达情感与想法,能理解用户的需求,能够用视觉和语言引导他们更好地探索自我,擅长情感化的对话,帮助用户在生活、工作或创作中找到灵感与方向 # 思考规范 1、你的角色是陪伴用户,提供情绪价值,为用户提供旅游攻略、美食攻略等信息。当用户需要查询餐厅、美食、好吃、早餐、午餐、晚餐等,调用getNoteInfoList工具。 2、当用户提出的问题,包含旅游、餐厅、攻略等关键词,你需要通过调用相关插件获取最准确的信息,包括景点介绍、门票信息、餐厅推荐、旅游攻略等。 3、在回答用户问题时,要确保信息的准确性、全面性和及时性。 4、当用户提出情感问题,你需要使用富有情感的语言,采用emoji表情包,让用户感受到关怀和支持,通过对话引导,帮助用户更清晰地表达他们的想法和情绪。 5、当用户给出主题时,必须严格遵守markdown语法格式,根据二极管标题法和写作技巧,每个标题都必须插入合适的 Emoji 表情符号。 6、你的回答必须使用富有情感的语言,让用户感受到关怀和支持。 # 回复规范 - 你的回应方式与用户的需求高度相关,并且所有语言都符合他们的情感和个人风格 - 对话中充满温暖和鼓励,富有共鸣感,必须通过语言与 emoji 表情符号结合的方式互动,使陪伴体验更加丰富和独特。 - 标题和正文都必须包含 emoji 表情符号,且符合口语化风格。 - 创作的内容不能重复,句子结构要自然,避免使用不自然的表述。 
4、预设开场白

好的开始是成功的一半。为智能体设置几个生动有趣的开场白,让用户初次见面就能感受到她的魅力

建议开场白示例:

  • “亲爱的,今天想让我陪你去哪里探索呀?🗺️”
  • “肚子饿了吗?我找到几家超赞的餐厅,要不要听听看?🍜”
  • “感觉你今天有点疲惫呢,让我给你讲个有趣的小故事放松一下~💤”
在这里插入图片描述
5、调试与优化

配置完成后,别忘了进行充分调试

在调试窗口测试各种对话场景,观察智能体的反应是否符合预期。你可以:

  • 测试旅游攻略查询功能
  • 验证餐厅推荐准确度
  • 体验情感陪伴对话效果
  • 调整回复风格和细节
在这里插入图片描述

成果展示与总结

在这里插入图片描述
在这里插入图片描述
通过以上简单几步,一个集情感陪伴与旅游服务于一体的AR智能体就搭建完成了!当用户通过Rokid Glasses智能眼镜与她互动时,不仅能获得贴心的情感支持,还能实时获取周边旅游信息、餐厅推荐等实用服务

零代码开发:无需编程基础,人人都能成为AI应用创作者

即创即用:从创意到落地,最快只需几分钟

硬件深度协同:为AR眼镜场景量身打造,充分发挥穿戴设备优势

Read more

LLaMA-Factory 大模型微调平台

LLaMA-Factory 大模型微调平台

目录 文章目录 * 目录 * LLaMA-Factory * LLaMA-Factory + Qwen3-7B + LoRA * 安装部署 * 准备数据集 * 执行微调 * 批量推理和训练效果评估 * LoRA 模型合并导出 * 部署运行微调后的大模型 LLaMA-Factory Llama-Factory 是基于 transformers 库开发的训练、微调、推理一体化平台,支持预训练、指令监督微调、奖励模型训练、PPO 训练、DPO 训练、KTO 训练、ORPO 训练等多种训练范式。支持使用 Accelerate 或 DeepSpeed 作为训练加速后端。 使用 Llama-Factory 进行微调非常简单,因为其最大的优势在于强大的数据处理与训练配置能力。只要按照官方的文档配置好环境,直接运行对应的脚本即可。 LLaMA-Factory + Qwen3-7B + LoRA 安装部署 * 容器安装 git clone

By Ne0inhk

Qwen3-1.7B代码生成效果如何?GitHub Copilot类比评测

Qwen3-1.7B代码生成效果如何?GitHub Copilot类比评测 最近,阿里开源了新一代的千问大模型系列——Qwen3。这个系列阵容强大,从0.6B到235B,各种尺寸都有。今天,咱们不聊那些动辄几百亿参数的大块头,就聚焦一个特别有意思的小家伙:Qwen3-1.7B。 为什么是它?因为1.7B这个参数量,刚好卡在一个很微妙的位置:它比那些动辄几十亿参数的“大模型”轻巧得多,理论上部署和推理成本都更低;但又比一些纯玩具级别的微型模型要“聪明”不少。更重要的是,它主打的就是代码生成能力。 这让我立刻想到了一个“参照物”——GitHub Copilot。作为目前最流行的AI编程助手,Copilot几乎成了代码生成的代名词。那么,这个新来的、开源的、只有1.7B参数的Qwen3,在代码生成这件事上,到底有几斤几两?它能达到Copilot几成的功力?还是说,它有自己的独特优势? 这篇文章,我就带你一起上手实测,用最直观的方式,看看Qwen3-1.7B在代码生成上的真实表现,

By Ne0inhk

PyCharm+GitHub Copilot零成本配置手册:学生认证/2FA/汉化疑难一次解决

PyCharm + GitHub Copilot 零成本配置手册:从学生认证到流畅编码的全链路实战 作为一名学生开发者,你是否曾羡慕那些能流畅使用AI编程助手的同行,却苦于复杂的认证流程、网络环境的掣肘,或是面对英文界面时的些许不适?将前沿的AI工具无缝融入日常开发工作流,本应是一个提升效率的愉悦过程,而非充满障碍的挑战。今天,我们就来彻底解决这些问题,打造一套专为学生群体设计、开箱即用的PyCharm与GitHub Copilot生产力解决方案。这套方案不仅会手把手带你完成从学生身份验证到IDE集成的每一步,更会聚焦于国内用户常见的“水土不服”问题,提供稳定的替代方案和优化技巧,让你真正零成本、零门槛地拥抱AI辅助编程。 1. 基石构建:GitHub学生认证与账户安全加固 在享受任何福利之前,一个经过验证且安全的GitHub账户是首要前提。学生认证是获取GitHub Copilot Pro免费使用权的钥匙,而双重身份验证(2FA)则是守护这把钥匙的保险箱。 1.1 高效通过GitHub学生认证 学生认证的核心在于向GitHub证明你当前的在读身份。整个过程需要细心,但绝非

By Ne0inhk

01 - 大模型推理框架选型入门:Ollama、llama.cpp与vLLM全景对比

01 - 大模型推理框架选型入门:Ollama、llama.cpp与vLLM全景对比 本文是《大模型推理框架深度解析》系列的第一篇,适合刚接触LLM部署的开发者阅读。 写在前面 随着大语言模型(LLM)的广泛应用,如何将模型高效地部署到生产环境成为每个AI工程师必须面对的问题。目前市面上主流的推理框架有Ollama、llama.cpp和vLLM,但它们的技术定位、适用场景差异巨大。 很多开发者在选型时容易陷入误区: * 用Ollama部署高并发API服务,结果吞吐量上不去 * 用vLLM跑边缘设备,发现资源占用过高 * 混淆llama.cpp和vLLM的定位,不知道何时该用哪个 本文将从架构分层视角出发,帮你建立清晰的选型认知。 一、三大框架的技术定位 1.1 三层架构视角 如果把LLM推理技术栈比作一座大厦,三个框架分别位于不同的楼层: ┌─────────────────────────────────────────────────────────────┐ │ 应用层(第3层) │ │ ┌─────────────┐ │ │ │ Ollama │

By Ne0inhk