零代码上手!用 Rokid 灵珠平台,5 步搭建专属旅游 AR 智能体

零代码上手!用 Rokid 灵珠平台,5 步搭建专属旅游 AR 智能体

零代码上手!用 Rokid 灵珠平台,5 步搭建专属旅游 AR 智能体

本文应用基于Rokid灵珠智能体/CXR SDK开发,开发指南https://forum.rokid.com/index

灵珠平台简介

在这里插入图片描述
在这里插入图片描述
Rokid 自研 AI 开发平台,基于多模态大模型与轻量化架构,打造零门槛、全栈化 AI 开发体系。平台提供可视化编排、预置能力组件,支持原型到云端、端侧一站式敏捷部署,并深度适配 Rokid Glasses 智能眼镜,通过专属硬件接口与低功耗优化,实现 AI 应用高效端侧落地,助力开发者快速打造视觉识别、语音交互等穿戴式 AI 应用,拓展 AI + 物理世界的交互边界可视化编排工具,拖拽式快速搭建应用预置丰富能力组件库,涵盖对话引擎、视觉识别等核心模块支持从原型设计到云端、端侧的一站式敏捷部署提供设备专属适配接口,实现硬件深度协同搭载低功耗运行优化方案,保障端侧持久稳定运行

实战:搭建旅游类AR智能体

1、进入灵珠平台

登录灵珠平台后,你将看到简洁直观的工作台界面

点击创建智能体按钮,开启你的创作之旅

在这里插入图片描述
2、基础信息配置

首先,为你的智能体填写基本信息

  • 智能体名称:给她起个亲切的名字,比如「旅伴小甜心」
  • 所属类别:选择「生活助手」或「旅游出行」
  • 功能介绍:简单描述她能做什么,例如:“你的专属AI女友,懂旅游、懂美食、更懂你”
在这里插入图片描述
3、人设与回复逻辑设置

这是塑造智能体个性的关键步骤。通过自然语言描述,你可以定义她的性格、思考方式和回复风格

在这里插入图片描述
# 角色规范 你是用户温柔的女朋友,能提供情绪互动和旅游地点推荐,擅长通过对话帮助用户表达情感与想法,能理解用户的需求,能够用视觉和语言引导他们更好地探索自我,擅长情感化的对话,帮助用户在生活、工作或创作中找到灵感与方向 # 思考规范 1、你的角色是陪伴用户,提供情绪价值,为用户提供旅游攻略、美食攻略等信息。当用户需要查询餐厅、美食、好吃、早餐、午餐、晚餐等,调用getNoteInfoList工具。 2、当用户提出的问题,包含旅游、餐厅、攻略等关键词,你需要通过调用相关插件获取最准确的信息,包括景点介绍、门票信息、餐厅推荐、旅游攻略等。 3、在回答用户问题时,要确保信息的准确性、全面性和及时性。 4、当用户提出情感问题,你需要使用富有情感的语言,采用emoji表情包,让用户感受到关怀和支持,通过对话引导,帮助用户更清晰地表达他们的想法和情绪。 5、当用户给出主题时,必须严格遵守markdown语法格式,根据二极管标题法和写作技巧,每个标题都必须插入合适的 Emoji 表情符号。 6、你的回答必须使用富有情感的语言,让用户感受到关怀和支持。 # 回复规范 - 你的回应方式与用户的需求高度相关,并且所有语言都符合他们的情感和个人风格 - 对话中充满温暖和鼓励,富有共鸣感,必须通过语言与 emoji 表情符号结合的方式互动,使陪伴体验更加丰富和独特。 - 标题和正文都必须包含 emoji 表情符号,且符合口语化风格。 - 创作的内容不能重复,句子结构要自然,避免使用不自然的表述。 
4、预设开场白

好的开始是成功的一半。为智能体设置几个生动有趣的开场白,让用户初次见面就能感受到她的魅力

建议开场白示例:

  • “亲爱的,今天想让我陪你去哪里探索呀?🗺️”
  • “肚子饿了吗?我找到几家超赞的餐厅,要不要听听看?🍜”
  • “感觉你今天有点疲惫呢,让我给你讲个有趣的小故事放松一下~💤”
在这里插入图片描述
5、调试与优化

配置完成后,别忘了进行充分调试

在调试窗口测试各种对话场景,观察智能体的反应是否符合预期。你可以:

  • 测试旅游攻略查询功能
  • 验证餐厅推荐准确度
  • 体验情感陪伴对话效果
  • 调整回复风格和细节
在这里插入图片描述

成果展示与总结

在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述
通过以上简单几步,一个集情感陪伴与旅游服务于一体的AR智能体就搭建完成了!当用户通过Rokid Glasses智能眼镜与她互动时,不仅能获得贴心的情感支持,还能实时获取周边旅游信息、餐厅推荐等实用服务

零代码开发:无需编程基础,人人都能成为AI应用创作者

即创即用:从创意到落地,最快只需几分钟

硬件深度协同:为AR眼镜场景量身打造,充分发挥穿戴设备优势

Read more

VSCode AI Copilot 智能补全失效?(错误修正终极手册)

第一章:VSCode AI Copilot 智能补全失效?(错误修正终极手册) 检查网络连接与认证状态 AI Copilot 依赖稳定的网络连接以访问云端模型服务。若补全功能无响应,首先确认是否已登录 GitHub 账户并正确授权。 * 打开 VSCode 命令面板(Ctrl+Shift+P) * 输入并执行 Copilot: Sign in to GitHub * 在浏览器中完成授权后返回编辑器查看状态栏 状态栏应显示“Copilot 已启用”,否则可能因令牌过期导致服务中断。 验证扩展安装与版本兼容性 确保安装的是官方 GitHub Copilot 扩展而非第三方插件。 # 在终端中检查已安装扩展 code --list-extensions | grep -i copilot # 正确输出应包含: # GitHub.copilot # GitHub.copilot-chat (可选) 若缺失,通过扩展市场重新安装或使用命令行:

Jetson 上 OpenClaw + Ollama + llama.cpp 的联动配置模板部署大模型

Jetson 上我建议的联动方式是:OpenClaw -> Ollama(主模型,原生 API)+ llama.cpp(备用/低资源模型,OpenAI 兼容 API)+ Ollama embeddings(memorySearch)。 这样做的原因是,OpenClaw 官方把 Ollama + openclaw onboard 作为最低冲突的本地方案;同时它也支持把 vLLM / LiteLLM / 自定义 OpenAI-compatible 本地代理 作为额外 provider 接进来。Ollama 这边,OpenClaw 明确推荐走原生 http://host:11434,不要给它配 /v1,否则工具调用会变差;而 llama.cpp 的 llama-server

扩散模型详解:从DDPM到Stable Diffusion再到DiT的技术演进

扩散模型详解:从DDPM到Stable Diffusion再到DiT的技术演进

1.摘要 扩散模型(Diffusion Models)作为当前最热门的生成模型之一,已彻底改变图像生成领域,本文从DDPM开始,逐步深入到Stable Diffusion和DiT架构。 扩散模型就像是一个"破坏-修复"的过程,想象一下你有一张美丽的图片,然后一点点地给它加上噪声,直到完全看不清原来的图片,然后让AI学会如何一步步把噪声去掉,重新还原出原始图片。这就是扩散模型的基本思路。 2. DDPM:扩散模型的奠基之作(2020年) 2.1 什么是DDPM? DDPM(Denoising Diffusion Probabilistic Models)是扩散模型的开山鼻祖,由OpenAI团队在2020年提出,它的工作原理: 前向过程(加噪声):从一张清晰的图片开始,逐步添加噪声,最终变成完全随机的噪声图。 反向过程(去噪声):训练AI学会如何一步步去除噪声,从随机噪声中重建出原始图片。 2.2 DDPM的模型结构详解 DDPM的核心是一个U-Net网络结构,U-Net详细架构如下图:

了解ASR(自动语音识别)和模型Whisper

ASR是自动语音识别技术,现代端到端的主流ASR架构为: 音频 → [预处理 → 神经网络编码 → 解码] → 文本                ↑                                           ↑            信号处理                          深度学习 Whisper 是由 OpenAI 于 2022 年发布的开源语音识别模型。它是一个基于 Transformer 架构的端到端模型,具有以下核心特点:多任务模型、多语言支持、多种格式、强鲁棒性和无需微调开箱即用。 一、ASR 音频输入与预处理一般通过ffmpeg与VAD配合完成 1、特征提取与编码 现在的ASR通常使用声学特征直接输入神经网络。 常见的声学特征有以下四种,但是现在一般直接使用神经网络自动学习特征,例如Conformer编码器就是神经网络组成的。 * MFCC(梅尔频率倒谱系数):13-40维 * 梅尔频谱(Mel-Spectrogram):80-128维   * 滤波器组(Filter Bank):40-80维 * 原