鸿蒙 AI App 的技术架构解析

鸿蒙 AI App 的技术架构解析
在这里插入图片描述

子玥酱(掘金 / 知乎 / ZEEKLOG / 简书 同名)

大家好,我是子玥酱,一名长期深耕在一线的前端程序媛 👩‍💻。曾就职于多家知名互联网大厂,目前在某国企负责前端软件研发相关工作,主要聚焦于业务型系统的工程化建设与长期维护。

我持续输出和沉淀前端领域的实战经验,日常关注并分享的技术方向包括前端工程化、小程序、React / RN、Flutter、跨端方案,
在复杂业务落地、组件抽象、性能优化以及多端协作方面积累了大量真实项目经验。

技术方向:前端 / 跨端 / 小程序 / 移动端工程化
内容平台:掘金、知乎、ZEEKLOG、简书
创作特点:实战导向、源码拆解、少空谈多落地
文章状态:长期稳定更新,大量原创输出

我的内容主要围绕 前端技术实战、真实业务踩坑总结、框架与方案选型思考、行业趋势解读 展开。文章不会停留在“API 怎么用”,而是更关注为什么这么设计、在什么场景下容易踩坑、真实项目中如何取舍,希望能帮你在实际工作中少走弯路。

子玥酱 · 前端成长记录官 ✨
👋 如果你正在做前端,或准备长期走前端这条路
📚 关注我,第一时间获取前端行业趋势与实践总结
🎁 可领取 11 类前端进阶学习资源(工程化 / 框架 / 跨端 / 面试 / 架构)
💡 一起把技术学“明白”,也用“到位”

持续写作,持续进阶。
愿我们都能在代码和生活里,走得更稳一点 🌱

文章目录

引言

随着大模型能力逐渐普及,越来越多应用开始接入 AI 功能。
但很多开发者在真正做 AI 应用时,很快会遇到一个问题:

传统 App 架构,并不适合 AI 应用。

过去我们设计 App,通常围绕 页面 + 业务逻辑展开。但 AI 应用的核心不再只是页面,而是:

AI 能力 任务理解 服务调用 

这意味着应用架构需要发生变化。

一、传统 App 架构是什么样

大多数鸿蒙应用的架构类似这样:

Page ↓ Service ↓ Repository ↓ Network 

职责很清晰:

Page UI 展示 Service 业务逻辑 Repository 数据管理 Network 网络请求 

例如:

用户点击按钮 ↓ 页面调用 Service ↓ Service 调用 API ↓ 返回数据展示 

这种架构适合 功能型应用,但 AI 应用的逻辑完全不同。

二、AI App 的核心流程

AI 应用通常是这样工作的:

用户输入 ↓ AI 理解意图 ↓ 任务规划 ↓ 调用服务 ↓ 返回结果 

例如,用户输入:

帮我推荐附近好吃的餐厅 

系统流程可能是:

AI → 意图识别 AI → 解析位置 AI → 调用餐厅服务 AI → 返回推荐 

这里 AI 其实成为 系统核心入口

三、AI App 的核心模块

一个完整的 AI 应用通常包含几个核心模块:

AI Layer Service Layer Data Layer UI Layer 

结构示意:

用户输入 ↓ AI Layer ↓ Service Layer ↓ Data Layer ↓ UI 展示 

AI 层变成整个系统的 控制中心

四、AI Layer(AI 层)

AI 层负责:

意图识别 任务规划 工具调用 

典型模块包括:

Intent Parser Task Planner Tool Manager Prompt Manager 

结构示例:

ai ├─ ai_service ├─ intent_parser ├─ task_planner └─ prompt_manager 

示例代码:

exportclassAIService{asyncchat(message:string){const intent =awaitthis.parseIntent(message)returnawaitthis.executeTask(intent)}}

AI 层会决定 调用哪个服务

五、Service Layer(服务层)

Service 层负责具体业务能力,例如:

用户服务 订单服务 搜索服务 推荐服务 

结构:

services ├─ UserService ├─ SearchService └─ OrderService 

示例:

exportclassSearchService{asyncsearchRestaurant(keyword:string){returnawait ApiClient.get("/restaurant/search")}}

AI 通过 Service 调用业务能力。

六、Tool Layer(工具层)

在 AI 应用中,经常会设计 Tool(工具)系统,Tool 的作用是:

把应用能力暴露给 AI 

例如:

搜索餐厅 查询天气 预订酒店 

结构:

tools ├─ SearchRestaurantTool ├─ WeatherTool └─ BookingTool 

示例:

exportclassWeatherTool{asyncexecute(city:string){returnawait WeatherService.getWeather(city)}}

AI 可以通过工具调用服务。

七、数据层

数据层负责:

网络请求 缓存 数据库 

结构:

repository ├─ UserRepository └─ ContentRepository 

示例:

exportclassUserRepository{asyncfetchUserInfo(){returnawait HttpClient.get("/user")}}

八、UI 层

AI 应用的 UI 通常更简单,UI 主要负责:

输入 展示结果 确认操作 

例如:

@Entry@Component struct ChatPage {@State message:string=""@State reply:string="" aiService: AIService =newAIService()asyncsend(){this.reply =awaitthis.aiService.chat(this.message)}}

UI 只是一个 交互入口

九、完整架构示意

一个比较完整的鸿蒙 AI App 架构可能是:

entry ├─ pages │ ├─ components │ ├─ ai │ ├─ ai_service │ ├─ intent_parser │ ├─ task_planner │ └─ prompt_manager │ ├─ tools │ ├─ services │ ├─ repository │ ├─ models │ └─ utils 

数据流:

用户输入 ↓ AI Service ↓ Intent Parser ↓ Task Planner ↓ Tool / Service ↓ 返回结果 

十、AI 应用架构的关键设计原则

设计 AI 应用架构时,有几个关键原则。

1、AI 作为入口

传统应用:

UI → Service 

AI 应用:

AI → Service 

2、服务能力模块化

每个能力都应该是一个 独立 Service,例如:

SearchService PaymentService WeatherService 

3、工具化能力

AI 通过 Tool 调用系统能力

Tool → Service 

总结

随着 AI 技术的发展,应用架构正在发生变化,传统 App:

UI → Service → Network 

AI App:

User Input ↓ AI Layer ↓ Tool / Service ↓ Data Layer 

也就是说:

AI 不再只是功能,而是应用架构的核心。

对于鸿蒙应用来说,未来 AI 很可能成为:

系统能力 应用入口 任务执行者 

这意味着:鸿蒙 AI App 的架构,正在从 页面驱动逐渐转向 智能驱动

Read more

Ollama下载模型太慢?试试国内HuggingFace镜像+LLama-Factory组合

Ollama下载模型太慢?试试国内HuggingFace镜像+LLama-Factory组合 在本地跑一个大模型,第一步不是写代码、调参数,而是——等它下载完。 这听起来有点荒诞,却是许多中国开发者的真实日常。当你兴致勃勃地打开终端,输入 ollama run llama3:8b,满心期待地准备开启微调之旅时,现实却给你泼了一盆冷水:进度条纹丝不动,网络连接频繁中断,几个小时过去连基础权重都没拉下来。 问题出在哪?根源就在于——Ollama 默认从 HuggingFace 官方仓库拉取模型,而这个服务器远在海外。对于国内用户来说,这无异于“越洋取经”,不仅速度慢如龟爬,还常因网络波动导致失败重试,白白浪费时间和算力资源。 但其实,我们完全不必硬扛这条路。真正聪明的做法是:绕开公网瓶颈,借助国内镜像高速获取模型 + 使用 LLama-Factory 实现低门槛、高效率的本地微调。这套组合拳不仅能让你把“等待下载”的时间省下来喝杯咖啡,还能让7B甚至13B级别的模型在一张消费级显卡上顺利训练起来。 镜像加速:别再用裸连 HuggingFace

昇腾赋能海外主流大模型 | Llama-2-7b深度测评与部署方案

昇腾赋能海外主流大模型 | Llama-2-7b深度测评与部署方案

一. 昇腾引领国产AI算力新时代 当生成式人工智能迈入规模化应用的深水区,大模型已从技术探索走向产业落地的关键节点,而算力作为支撑这一进程的核心基础设施,正面临着前所未有的双重挑战:一方面,以Llama、GPT系列为代表的大模型参数规模持续扩大,对算力的峰值性能、内存带宽、能效比提出了指数级增长的需求;另一方面,全球算力供给格局的不确定性,使得核心算力设施的国产化替代成为保障AI产业自主可控发展的战略刚需。 在此背景下,昇腾(神经网络处理器)作为国产高端AI芯片的核心代表,其技术成熟度、生态适配性与性能表现,直接关系到我国在全球AI算力竞争中的核心话语权。 昇腾自诞生以来,便承载着构建国产AI算力底座的战略使命,通过“芯片-框架-模型-应用”全栈式技术布局,打破了海外算力芯片在高端AI领域的垄断局面。从架构设计来看,昇腾采用面向AI计算的专用架构,集成了大量AI计算单元与高效内存管理模块,能够针对性解决大模型训练与推理过程中的数据吞吐瓶颈。 本次测评的核心硬件平台基于昇腾910B 构建,其为大模型的高速推理提供了坚实的硬件基础; 1.什么是昇腾 昇腾 (Ascend)

Z-Image-Turbo新手入门:从0开始玩转AI绘画

Z-Image-Turbo新手入门:从0开始玩转AI绘画 你是不是也试过在AI绘画工具前卡住——输入一段精心写的提示词,等了十几秒,结果画面模糊、文字错乱、人物缺胳膊少腿?或者刚配好环境,显存就爆了,连第一张图都跑不出来? 别急。今天要介绍的这个工具,可能就是你一直在找的“那个对的”:Z-Image-Turbo。 它不是又一个参数堆出来的庞然大物,而是一款真正为“人”设计的AI绘画模型——8步出图、16GB显存就能跑、中文提示直接理解不翻译、生成的照片级真实感让人忍不住多看两眼。更重要的是,它开箱即用,不用下载权重、不用调依赖、不用查报错日志,点开浏览器就能画。 这篇文章就是为你写的。无论你是第一次听说“文生图”,还是已经折腾过Stable Diffusion但被配置劝退,只要你有一台带NVIDIA显卡的电脑(RTX 3090及以上更佳),接下来15分钟,你就能亲手生成第一张属于自己的AI作品。 我们不讲原理推导,不列公式,不堆术语。只说三件事: 怎么最快启动它 怎么写出让它“听懂”的提示词 怎么避开新手最容易踩的5个坑 准备好了?

5款开源PPT生成大模型实测对比:从ChatGPT到文心一言,哪款最适合你?

5款开源PPT生成大模型深度评测:从技术原理到实战效果 在数字化办公时代,PPT制作已成为职场人士的日常必修课。传统PPT制作流程耗时费力,从内容构思到排版设计往往需要数小时甚至更长时间。而随着AI技术的快速发展,开源大模型正在彻底改变这一局面——只需简单指令,AI就能在几分钟内生成结构完整、设计专业的演示文稿。本文将聚焦5款最具代表性的开源PPT生成工具,从技术架构、生成效果到适用场景进行全面对比,帮助技术从业者和内容创作者找到最适合自己的生产力利器。 1. 开源PPT生成技术概览 PPT生成AI的核心在于将自然语言指令转化为结构化视觉呈现,这背后涉及三大关键技术模块: 1. 内容理解引擎:基于大语言模型(LLM)解析用户输入的文本指令,提取关键信息并组织成逻辑连贯的叙述结构 2. 设计适配系统:根据内容类型自动匹配最佳版式,包括布局、配色、字体等视觉元素 3. 文档生成组件:将结构化内容与设计模板融合,输出标准PPT文件格式(如.pptx) 当前主流开源方案主要分为两类架构: 架构类型代表模型核心优势典型适用场景API调用型ChatGPT-PPT生成质量高需