用 AI 做鸿蒙游戏 NPC,是一种什么体验?

用 AI 做鸿蒙游戏 NPC,是一种什么体验?
在这里插入图片描述

子玥酱(掘金 / 知乎 / ZEEKLOG / 简书 同名)

大家好,我是子玥酱,一名长期深耕在一线的前端程序媛 👩‍💻。曾就职于多家知名互联网大厂,目前在某国企负责前端软件研发相关工作,主要聚焦于业务型系统的工程化建设与长期维护。

我持续输出和沉淀前端领域的实战经验,日常关注并分享的技术方向包括前端工程化、小程序、React / RN、Flutter、跨端方案,
在复杂业务落地、组件抽象、性能优化以及多端协作方面积累了大量真实项目经验。

技术方向:前端 / 跨端 / 小程序 / 移动端工程化
内容平台:掘金、知乎、ZEEKLOG、简书
创作特点:实战导向、源码拆解、少空谈多落地
文章状态:长期稳定更新,大量原创输出

我的内容主要围绕 前端技术实战、真实业务踩坑总结、框架与方案选型思考、行业趋势解读 展开。文章不会停留在“API 怎么用”,而是更关注为什么这么设计、在什么场景下容易踩坑、真实项目中如何取舍,希望能帮你在实际工作中少走弯路。

子玥酱 · 前端成长记录官 ✨
👋 如果你正在做前端,或准备长期走前端这条路
📚 关注我,第一时间获取前端行业趋势与实践总结
🎁 可领取 11 类前端进阶学习资源(工程化 / 框架 / 跨端 / 面试 / 架构)
💡 一起把技术学“明白”,也用“到位”

持续写作,持续进阶。
愿我们都能在代码和生活里,走得更稳一点 🌱

文章目录

引言

如果你做过游戏开发,一定写过 NPC。而且大概率是这样写的:

if(playerNear){attack()}else{patrol()}

简单、直接、可控。但也有一个明显问题:

NPC 永远是“写死的”

而当你把 AI 引入到 HarmonyOS 游戏里,事情会发生变化:

const action = npcAgent.decide(state)

这时候你会发现:

你不再是在“写 NPC”,而是在“创造一个角色”

一、从“脚本 NPC”到“智能 NPC”

先看最核心的变化。

传统 NPC

if(hp <30){runAway()}else{attack()}

特点:

  • 可预测
  • 可控制
  • 可调试

AI NPC

const action = agent.decide({ hp, enemyDistance, history })

特点:

  • 不完全可预测
  • 有“行为风格”
  • 会“变化”

本质变化:

NPC 从“规则集合”,变成“决策系统”

二、第一感受:NPC“活”了

这是最直观的体验。

传统 NPC

玩家靠近 → 攻击 玩家远离 → 停止 

AI NPC

可能会:

  • 先观察你
  • 选择绕后
  • 假装撤退再反击

开发者的第一反应通常是:

“这行为我没写过啊?”

没错—— 这正是 AI 的价值

三、第二感受:你开始“调性格”,而不是“写逻辑”

传统开发:

if(...)doSomething()

AI 开发:

prompt =` 你是一个谨慎的敌人, 优先保命,其次攻击 `

你在做的事情变成:

设计行为风格(Personality) 

示例

npcAgent.setProfile({ style:"aggressive", riskTolerance:0.8})

本质变化:

代码 → 行为设计

四、第三感受:调试方式完全变了

传统调试:

  • 打断点
  • 看变量
  • 查逻辑

AI 调试:

  • 看输入
  • 看输出
  • 调 prompt

示例

console.log("state:", state)console.log("action:", action)

你会发现:

Bug 不再是“代码错了”,而是“AI 理解错了”

五、第四感受:不确定性

AI NPC 最大的特点: 不可完全预测

好处

  • 更真实
  • 更有趣
  • 更耐玩

坏处

  • 难调试
  • 难复现
  • 可能“失控”

示例

// 有时候 NPC 突然不攻击

你会想:

“是 bug 吗?”

其实可能是:

AI 决策的结果

六、鸿蒙上的独特体验

在 HarmonyOS 上,AI NPC 还有一些独特优势。

1、端侧 AI

const action = localModel.infer(state)

优点:

  • 实时决策
  • 无网络依赖

2、多设备感知

AI 可以感知:

手机输入 TV 状态 传感器数据 

示例

agent.decide({ playerInput, deviceContext, environment })

NPC 变成:

“全场景感知角色”

3、分布式协同

多个 NPC 可以协作:

teamAgent.decide(teamState)

形成: AI 队伍

七、一个完整 AI NPC 示例

我们做一个简单 Demo:

1、NPC Agent

classNPCAgent{asyncdecide(state){if(state.hp <20){return"escape"}if(state.enemyDistance <50){return"attack"}return"patrol"}}

这是“规则 + AI”的过渡版本。

2、接入页面

const action = npcAgent.decide({ hp:this.hp, enemyDistance:this.distance })this.execute(action)

3、执行行为

execute(action:string){switch(action){case"attack":this.attack()breakcase"escape":this.runAway()break}}

这就是最小 AI NPC 架构:

State → Agent → Action → Execute 

八、进阶:接入大模型

如果你接入大模型(LLM),NPC 会更“人性化”。

示例

asyncdecide(state){const prompt =` 当前血量 ${state.hp} 敌人距离 ${state.enemyDistance} 你会怎么做? `returnawait llm.generate(prompt)}

效果:

  • 会说话
  • 会表达情绪
  • 会“演戏”

九、开发建议

1、不要一开始就用大模型

先用:

规则 → 简单 AI → LLM 

2、加“安全边界”

if(!validAction(action)){ action ="idle"}

3、记录行为日志

log.push({ state, action })

4、限制决策频率

setInterval(()=>{ agent.decide()},500)

十、最大的变化

传统 NPC :你写“它做什么”
AI NPC: 你定义“它是什么样的人”

总结

在 HarmonyOS 上,用 AI 做 NPC,本质是一次角色设计方式的升级。

可以总结为四个变化:

1、逻辑变了

if/else → AI 决策 

2、开发方式变了

写代码 → 设计行为 

3、调试方式变了

查 bug → 调 AI 

4、体验变了

NPC → 角色 

最后给你一个很有意思的结论:

当 NPC 不再是“写出来的”,而是“表现出来的”,游戏世界就开始变得真实。

而这,可能才是 AI 游戏真正的开始。

Read more

优质Skills推荐baoyu-skills:让 AI 帮你搞定技术文章配图与排版(二)

优质Skills推荐baoyu-skills:让 AI 帮你搞定技术文章配图与排版(二)

文章目录 * 1 让 AI 帮你搞定技术文章配图与排版 * 1.1. 一句话结论 * 1.2. 背景与痛点 * 1.3. 核心观点 * 2. 怎么落地:核心能力拆解 * 2.1. 技能全景图:你手里的武器库 * 2.2. 安装与配置 * 3. 奇葩但很真实的观点 * 3.1. 提示词工程的终局是“消失” * 4. 案例分享:从枯燥文档到小红书爆款 * 4.1. 案例实操 * 5. 可复用的 Skill 片段示例 * 6. 参考文献 1 让 AI 帮你搞定技术文章配图与排版 1.1. 一句话结论 如果你在用

LLaMA-Factory部署以及微调大模型

一、安装LLaMa-Factory 1.python环境安装 安装成功后,输入python能出现截图表示安装成功 2.CUDA和PyTorch安装 2.1 PyTorch安装 查看PyTorch与CUDA对应的版本,然后进行安装。PyTorch的管网地址:PyTorch 把网页往下拖能看到PyTorch和CUDA对应的版本。 我这里将要选择的CUDA版本是11.8。我自己试过CUDA12.6的版本,不知道为什么没有跑通,后面就直接把CUDA的版本选成11.8了。 在终端中输入截图中的指令: pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118 就会安装PyTorch,不翻墙的情况下安装比较慢,建议有条件的可以翻墙安装。因为我已经安装成功了,再来编写的该文章,结果如截图所示。 到此PyTorch安装结束。 2.2 CUDA安装 找到CUDA的历史版本。链接地址:CUDA Toolkit

AI的提示词专栏:重构建议 Prompt,代码可读性提升

AI的提示词专栏:重构建议 Prompt,代码可读性提升

AI的提示词专栏:重构建议 Prompt,代码可读性提升 本文围绕重构建议 Prompt 在提升代码可读性中的应用展开,先明确代码可读性的五大评价维度(命名规范、函数设计、逻辑简化、注释完整性、代码复用)及量化标准,再构建基础版、进阶版、专家版三级 Prompt 设计框架,结合 Python、Java、JavaScript/TypeScript、Go 等主流语言特性提供适配技巧,还分析了 Prompt 使用中常见问题(如模型误解需求、方案不可执行)及解决方案。最后通过核心要点回顾、实践建议和不同难度的课后练习,形成 “问题识别 - Prompt 设计 - 方案落地 - 效果验证” 的全流程指南,助力开发者利用 Prompt 高效完成代码重构,平衡代码可读性与业务稳定性。 人工智能专栏介绍     人工智能学习合集专栏是

当Copilot动辄推荐awk:AI的“Linux思维”,是进化还是执念?

当Copilot动辄推荐awk:AI的“Linux思维”,是进化还是执念?

当Copilot动辄推荐awk:AI的“Linux思维”,是进化还是执念? “用awk处理这个文本吧”——最近,不少程序员在使用GitHub Copilot时,都会被这句突如其来的建议“刷屏”。原本只是用来补全代码、生成函数的AI助手,如今却频频跳出代码编辑器的范畴,主动推荐awk、sed、grep这些Linux命令行工具,甚至能生成一套完整的Shell命令流水线,帮你完成数据清洗、日志分析等复杂操作。 这一现象迅速在技术圈引发热议:有人惊叹AI已经具备了“Linux思维”,能像资深运维工程师一样用底层工具高效解决问题;也有人调侃,Copilot怕不是被“老派”程序员的代码喂偏了,动辄就awk,仿佛图形界面在它眼里就是“不够极客”的代名词;更有人担忧,当AI都能熟练运用这些经典Unix工具时,程序员的核心技能会不会被颠覆,我们是不是真的要重新捡起尘封的man手册? 今天,我们就从Copilot的awk执念说起,聊聊AI与Linux底层工具的碰撞,拆解这场“AI Linux思维”热潮背后的真相、价值与争议,顺便解答每个开发者都关心的问题:当AI开始用命令行思考,我们该顺势而为,还是保