Flutter for OpenHarmony:Flutter 三方库 dart_mcp — 开启鸿蒙端的 AI Agent 通信协议新纪元(适配鸿蒙 HarmonyOS Next ohos)

Flutter for OpenHarmony:Flutter 三方库 dart_mcp — 开启鸿蒙端的 AI Agent 通信协议新纪元(适配鸿蒙 HarmonyOS Next ohos)

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net

Flutter for OpenHarmony:Flutter 三方库 dart_mcp — 开启鸿蒙端的 AI Agent 通信协议新纪元(适配鸿蒙 HarmonyOS Next ohos)

请添加图片描述

前言

随着生成式 AI 的爆发,Model Context Protocol (MCP) 正逐渐成为连接大型语言模型(LLM)与外部工具(Tools)、数据源(Resources)及上下(Context)的标准开放协议。它由 Anthropic 发起,旨在解决 AI 代理在获取现实世界信息时的碎片化问题。

Flutter for OpenHarmony 开发中,我们不仅关注 UI 的精美,更要关注如何让鸿蒙应用具备强大的 AI 交互能力。dart_mcp 库通过轻量级的 Dart 封装,实现了 MCP 协议的核心通信逻辑。今天,我们将实战如何让鸿蒙应用通过这个协议,变身为一个具备实时上下文感知能力的 AI 智能体。

一、什么是 MCP 协议?

1.1 架构本质

MCP 定义了 Client(如 AI 模型) 如何安全、标准地向 Server(如鸿蒙应用或本地数据库) 请求特定的能力或数据。

1.2 为什么在鸿蒙开发中使用它?

  • 万物互联的语言:鸿蒙主打分布式连接,MCP 则主打工具连接。两者的结合能实现“一句话调度全屋鸿蒙设备”的深度 AI 体验。
  • 纯 Dart 驱动:不依赖特定厂商的 SDK,适配 OpenHarmony 各类 CPU 架构,具有极强的可移植性。
  • 标准化工具库:一旦您的鸿蒙应用实现了 MCP 规格的接口,任何支持 MCP 协议的 AI 模型都能瞬间“理解”并调用您的应用功能。

1.3 AI 工具调用链路(Mermaid)

发送 JSON-RPC

AI 交互界面

LLM 推理引擎

MCP 协议拦截器

dart_mcp 客户端

鸿蒙核心系统 API

执行本地任务: 如发短信/查日程

数据上下文反馈

AI 给用户人性化响应

二、核心 API 与功能讲解

2.1 引入依赖

pubspec.yaml 中配置协议库:

dependencies:# MCP 协议标准实现dart_mcp: ^0.1.0-alpha.1 

2.2 定义 MCP 工具服务 (Server 端)

在鸿蒙应用中注册一个可供 AI 调用的“工具”。

import'package:dart_mcp/dart_mcp.dart';// 💡 定义一个查阅鸿蒙设备状态的工具final deviceTool =McpTool( name:'get_ohos_system_info', description:'获取当前鸿蒙系统的具体版本和运行电量', inputSchema:{'type':'object','properties':{'include_battery':{'type':'boolean'}}},);
在这里插入图片描述

2.3 协议消息转发

处理来自 AI 的 JSON-RPC 请求。

voidhandleMcpRequest(String jsonRpcString){// 🎨 利用 dart_mcp 解析请求体final request =McpRequest.fromJson(jsonRpcString);if(request.method =='call_tool'){// 🎨 调用对应的工具逻辑final result =executeOhosNativeLogic(request.params['tool_name']);sendMcpResponse(result);}}
在这里插入图片描述

三、鸿蒙应用实战场景

3.1 场景一:智能办公助手

在鸿蒙办公应用中,用户可以通过语音对 AI 说:“查看我明天的日程并摘要发给领导”。AI 通过 dart_mcp 协议接入应用的日历资源,提取信息后调用应用的邮件发送工具完成任务。

在这里插入图片描述

3.2 场景二:分布式 AI 中控

在智慧屏(鸿蒙设备)上运行 MCP 服务端。在手机端(MCP 客户端)的 AI 输入指令:“检查玄关摄像头的画面特征”。协议跨端传递 AI 处理需求,屏幕终端反馈图像上下文,实现分布式的 AI 协同分析。

在这里插入图片描述

四、OpenHarmony 平台适配建议

4.1 安全上下文隔离

MCP 允许 AI 访问本地资源,这对鸿蒙系统的安全底座提出了要求。

  • ✅ 建议:在实现 MCP 服务时,务必对 AI 传入的每一个字段进行严格的类型和范围校验。在鸿蒙应用中设置“权限白名单”,确保 AI 只能在用户授权的范围内操作敏感 API。

4.2 异步超时处理

AI 的推理通常较慢,且网络可能有波动。

  • 📌 提醒:MCP 基于 JSON-RPC 2.0。在鸿蒙开发中,应设置合理的 timeout 时间,防止 AI 代理由于本地工具响应过慢而进入假死状态。

4.3 序列化效率优化

  • ⚠️ 警告:MCP 涉及大量的 JSON 编解码。对于高性能的鸿蒙实时交互,建议使用流水线化的 dart:convert 方案,或结合 json_serializable 提升处理速度。

五、完整示例代码

此示例演示了一个符合 MCP 协议定义的“计算器工具”在鸿蒙端的实现雏形。

import'package:flutter/material.dart';import'package:dart_mcp/dart_mcp.dart';voidmain()=>runApp(constMaterialApp(home:McpProtocolLab()));classMcpProtocolLabextendsStatefulWidget{constMcpProtocolLab({super.key});@overrideState<McpProtocolLab>createState()=>_McpProtocolLabState();}class _McpProtocolLabState extendsState<McpProtocolLab>{String _mcpLog ='MCP 服务端监听中...';void_simulateAiCall(){// 1. 模拟一个 AI 发过来的工具调用请求final fakeRequest ={"jsonrpc":"2.0","method":"tools/call","params":{"name":"calculate_shippment","arguments":{"weight":1.5,"destination":"Shenzhen"}},"id":1};// 2. ✅ 实战:使用 SDK 解析并执行逻辑setState((){ _mcpLog ='收到 AI 调用请求: \n${fakeRequest['params']}\n正在计算结果反馈给模型...';});}@overrideWidgetbuild(BuildContext context){returnScaffold( appBar:AppBar(title:constText('dart_mcp 鸿蒙协议实验室')), body:Center( child:Column( children:[constIcon(Icons.psychology, size:80, color:Colors.blueGrey),constSizedBox(height:20),Container( padding:constEdgeInsets.all(16), color:Colors.black12, child:SelectableText(_mcpLog),),constSizedBox(height:20),ElevatedButton(onPressed: _simulateAiCall, child:constText('模拟 AI 工具调用')),],),),);}}
在这里插入图片描述

六、总结

dart_mcp 是将 Flutter for OpenHarmony 应用带入 AI 时代的钥匙。通过遵循这一国际开放协议,我们不仅能让鸿蒙应用接入海量的 AI 模型,更能让应用本身成为 AI 生态中一个可以被调度、被理解的“智慧组件”。

核心要点回顾:

  1. MCP 是连接器:让 AI 与鸿蒙本地能力无缝对接。
  2. 标准化交互:基于 JSON-RPC 的工具调用,逻辑高度复用。
  3. 安全第一:在协议转换层严格把关鸿蒙敏感 API 的访问。
  4. 全场景潜力:从智能家居到移动办公,开启全新的 AI 交互体验。

拥抱 MCP 协议,让您的鸿蒙应用拥有连接 AI 未来世界的超链接能力!

Read more

VSCode Github Copilot使用OpenAI兼容的自定义模型方法

VSCode Github Copilot使用OpenAI兼容的自定义模型方法

背景 VSCode 1.105.0发布了,但是用户最期待的Copilot功能却没更新!!! (Github Copilot Chat 中使用OpenAI兼容的自定义模型。) 🔥官方也关闭了Issue,并且做了回复,并表示未来也不会更新这个功能: “实际上,这个功能在可预见的未来只面向内部人员开放,作为一种“高级”实验功能。是否实现特定模型提供者的功能,我们交由扩展作者自行决定。仅限内部人员使用可以让我们快速推进,并提供一种可能并非始终百分之百完善,但能够持续改进并快速修复 bug 的体验。如果这个功能对你很重要,我建议切换到内部版本 insider。” 🤗 官方解决方案:安装VSCode扩展支持 你们完全不用担心只需要在 VS Code 中安装扩展:OAI Compatible Provider for Copilot 通过任何兼容 OpenAI 的提供商驱动的 GitHub Copilot Chat,使用前沿开源大模型,如 Kimi K2、DeepSeek

Whisper语音识别:零门槛打造个人专属语音转文字系统

Whisper语音识别:零门槛打造个人专属语音转文字系统 【免费下载链接】whisper-base.en 项目地址: https://ai.gitcode.com/hf_mirrors/openai/whisper-base.en 还在为繁琐的音频整理工作而头疼?OpenAI Whisper语音识别技术为您带来革命性的解决方案。这款强大的本地语音转文字工具能够将各类音频文件快速转换为可编辑文本,无论是会议记录、学习资料还是创作内容,都能轻松应对。 技术优势:为何选择Whisper语音识别 隐私安全第一 所有音频处理均在本地完成,无需上传云端,彻底保护您的数据隐私和商业机密。 多语言智能识别 支持99种语言的自动识别和转换,包括中文、英文、日语、法语等主流语言,还能实现语言间的智能翻译。 高精度转录效果 基于深度学习的先进算法,即使在复杂环境下也能保持出色的识别准确率。 快速部署:三分钟完成环境搭建 系统要求检查 确保您的设备满足以下条件: * Python 3.8或更高版本 * 至少4GB可用内存 * 支持的操作系统:Windows、macOS、Linux

Local Moondream2精彩案例分享:Stable Diffusion用户提示词优化前后对比

Local Moondream2精彩案例分享:Stable Diffusion用户提示词优化前后对比 让你的电脑拥有"眼睛",一键生成专业级绘画提示词 1. 引言:当AI绘画遇到"描述困难症" 很多Stable Diffusion用户都遇到过这样的困境:脑子里有很棒的创意画面,但就是不知道该怎么用文字描述出来。要么描述得太简单,生成效果不尽人意;要么描述得太复杂,AI反而理解偏差。 这就是Local Moondream2的价值所在——它就像一个专业的"视觉翻译官",能够看懂你的图片,然后用AI绘画最理解的语言,生成精准详细的英文提示词。 本文将通过多个真实案例,展示Local Moondream2如何将普通用户的简单描述,优化成专业级的绘画提示词,让你亲眼见证提示词优化前后的惊人差异。 2. 什么是Local Moondream2? 2.1 你的本地视觉助手 Local Moondream2是一个基于Moondream2构建的超轻量级视觉对话Web界面。简单来说,它能让你的电脑拥有"眼睛"

ROG-Map:一种高效的以机器人为中心的大场景高分辨率LiDAR运动规划网格地图(论文阅读)

ROG-Map:一种高效的以机器人为中心的大场景高分辨率LiDAR运动规划网格地图(论文阅读)

论文:ROG-Map: An Efficient Robocentric Occupancy Grid Map for Large-scene and High-resolution LiDAR-based Motion Planning 论文主要创新点: 1.本文旨在解决将激光雷达与OGM集成的挑战,ROG-Map是一种均匀的基于网格的OGM,可以保持局部地图与机器人一起移动,从而实现高效的地图操作,并降低大场景自主飞行的内存成本 2.此外,我们提出了一种新的增量障碍膨胀方法,该方法显着降低了膨胀的计算成本。该方法在各种公共数据集上优于最先进的(SOTA)方法。 3.0拷贝地图滑动策略,该策略仅维护机器人周围的局部地图,使ROG-Map适用于大场景任务 论文特点:只是用于避障的局部地图,最求计算效率最大化 第一部分:介绍 INTRODUCTION                视觉:测量范围短(35m);激光雷达:精确和远程(避开小障碍物和大场景感知)。由于要避开小障碍物,分辨率足够高的OGM能够感知小障碍物,从而在复杂环境中实现导航和避障。充分利用激光雷达提供远