MaaFramework实战教程:5个步骤创建自定义识别与操作模块

MaaFramework实战教程:5个步骤创建自定义识别与操作模块

【免费下载链接】MaaFramework基于图像识别的自动化黑盒测试框架 | An automation black-box testing framework based on image recognition 项目地址: https://gitcode.com/gh_mirrors/ma/MaaFramework

MaaFramework是一款基于图像识别的自动化黑盒测试框架,通过自定义识别与操作模块,开发者可以轻松扩展框架功能以适应各种复杂场景。本文将详细介绍如何在5个简单步骤内完成自定义模块的创建与集成,帮助新手快速掌握框架核心能力。

1. 准备开发环境

首先确保已正确安装MaaFramework开发环境,克隆官方仓库:

git clone https://gitcode.com/gh_mirrors/ma/MaaFramework 

项目中提供了多种语言的示例代码,其中NodeJS版本的自定义模块开发文档位于docs/zh_cn/NodeJS/J1.2-自定义识别_操作.md,建议先阅读该文档了解基本概念。

2. 定义自定义识别模块

自定义识别模块用于识别屏幕上的特定元素,需要定义识别规则和返回格式。创建识别配置文件,指定识别类型为"Custom"并设置唯一标识符:

{ "Task": { "recognition": "Custom", "custom_recognition": "myReco", "custom_recognition_param": { "msg": "Hello world!" } } } 

在代码中实现识别逻辑,通过注册函数将自定义识别器添加到框架中:

export interface CustomRecognizerSelf { context: Context id: maa.TaskId name: string param: unknown image: maa.ImageData } res.register_custom_recognizer('myReco', function (this: CustomRecognizerSelf, self: CustomRecognizerSelf) { return [ { x: 0, y: 0, width: 0, height: 0 }, '识别结果详情' ] }) 

3. 创建自定义操作模块

自定义操作模块用于执行特定的交互动作,如点击、滑动等。类似地,先定义操作配置:

{ "Task": { "action": "Custom", "custom_action": "myAct", "custom_action_param": { "msg": "Hello world!" } } } 

然后实现操作逻辑,注册自定义动作:

interface CustomActionSelf { context: Context id: maa.TaskId name: string param: unknown box: maa.Rect detail: string } inst.register_custom_action('myAct', function (this: CustomActionSelf, self: CustomActionSelf) => { // 执行自定义操作逻辑 return true }) 

4. 模块集成与测试

将自定义模块集成到MaaFramework项目中,建议参考sample/nodejs/main.ts中的示例代码。测试时可使用项目提供的测试图片:

该图片分辨率为1920x1080,适合用于测试各种屏幕识别场景。通过Agent进程托管自定义模块,便于承载复杂逻辑,相关测试代码可参考test/agent/agent_child_test.py

5. 高级应用:模块间调用

MaaFramework支持自定义模块间的相互调用,实现复杂业务逻辑。例如在识别模块中调用其他任务进行辅助识别:

inst.register_custom_recognizer('forward', (self) => { return self.context.run_recognition('another_task', self.image) }) 

在操作模块中调用其他任务执行复合操作:

inst.register_custom_action('forward', (self) => { return self.context.run_action('another_task', box, detail) }) 

通过这种方式,可以构建出功能强大的自动化测试流程,满足各种复杂场景需求。

通过以上5个步骤,你已经掌握了MaaFramework自定义识别与操作模块的创建方法。更多高级技巧和最佳实践,请参考官方文档docs/zh_cn/2.2-集成接口一览.md,开始你的自动化测试框架扩展之旅吧!

【免费下载链接】MaaFramework基于图像识别的自动化黑盒测试框架 | An automation black-box testing framework based on image recognition 项目地址: https://gitcode.com/gh_mirrors/ma/MaaFramework

Read more

解锁AIGC新时代:通义万相2.1与蓝耘智算平台的完美结合引领AI内容生成革命

解锁AIGC新时代:通义万相2.1与蓝耘智算平台的完美结合引领AI内容生成革命

前言 通义万相2.1作为一个开源的视频生成AI模型,在发布当天便荣登了VBench排行榜的榜首,超越了Sora和Runway等业内巨头,展现出惊人的潜力。模型不仅能够生成1080P分辨率的视频,而且没有时长限制,能够模拟自然动作,甚至还可以还原物理规律,这在AIGC领域中简直堪称革命性突破。通过蓝耘智算平台,我们能够轻松部署这个模型,创建属于自己的AI视频生成工具。今天,我将为大家深入探讨通义万相2.1的强大功能,并分享如何利用蓝耘智算平台快速入门。 蓝耘智算平台 1. 平台概述 蓝耘智算平台是一个为高性能计算需求设计的云计算平台,提供强大的计算能力与灵活服务。平台基于领先的基础设施和大规模GPU算力,采用现代化的Kubernetes架构,专为大规模GPU加速工作负载而设计,满足用户多样化的需求。 2. 核心优势 * 硬件层: 蓝耘智算平台支持多型号GPU,包括NVIDIA A100、V100、H100等高性能显卡,能够通过高速网络实现多机多卡并行计算,突破单机算力瓶颈。 * 软件层: 集成Kubernetes与Docker技术,便于任务迁移与隔离;支持PyTo

【AIGC】Claude Code Rules配置

建议直接使用别人沉淀好的rules,比如:来自 Anthropic 黑客马拉松获胜者的完整 Claude Code 配置集合。 1. Claude Code Rules 配置基础篇 Claude Code的Rules是用于定义代码规范、安全限制、工作流规则的核心配置机制,能让AI遵循项目特定的开发标准。以下是详细配置方法: 一、规则文件基础配置 1. 规则文件位置与命名 * 单一文件规则(简化版):项目根目录的 CLAUDE.md 或用户主目录的 ~/.claude/CLAUDE.md 全局规则(跨项目复用):用户主目录下的 .claude/rules/ 文件夹 ~/.claude/rules/ 项目级规则(优先级最高):项目根目录下的 .claude/rules/ 文件夹,所有 .md 文件会自动加载 project-root/

快速解决vscode远程连接时copilot提示脱机状态无法使用的问题

本文在以下博客的基础上进行进一步的补充。VsCode远程连接服务器后安装Github Copilot无法使用_vscode copilot chat用不了-ZEEKLOG博客 在vscode中,通过ssh或docker等连接远程服务器时,在远程窗口中可能会无法使用copilot,提示处于脱机状态。 只需要在设置(setting)中搜索"extension kind",点击settings.json; 进入settings.json后,找到"remote.extensionKind",加入如下"Github."开头的4行代码即可。 重启远程连接后,即可畅通使用copilot的ask和agent模式,也可以进行代码补全。

【AIGC文生图】通义万相2.1应用拓展与蓝耘云平台实践

【AIGC文生图】通义万相2.1应用拓展与蓝耘云平台实践

探索调参之道:通义万相2.1应用拓展与平台调优实践 近年来,随着生成模型不断迭代升级,通义万相在图像生成领域的表现愈发引人瞩目。相比于基础的文生图使用,如何在平台应用拓展和参数调优上发掘更大潜力,已成为众多开发者与工程师关注的热点。本文将从实际应用案例出发,分享一些调参心得与平台优化策略,并着重探讨蓝耘GPU平台在这方面的独特优势,力求帮助读者快速上手并走上创新之路。 一、通义万相2.1来临 前几日,通义官方发布了万相最新文生图模型2.1。 通义万相2.1在模型底层和交互体验上都有显著升级,具体来说: * 模型参数与语义理解升级 新版本参数规模已经突破千亿级别,使得对输入文本的语义捕捉更为精准,能更好地理解复杂描述,生成的图像在细节和质感上都有明显提升。与此同时,内置的智能改写功能可以自动优化用户输入,使得图像风格和表现更符合预期。 * 生成速度与细节表现的提升 得益于优化的算法和模型架构,生成速度大幅加快,尤其在高分辨率(最高支持200万像素)输出时,依然能保持流畅高效。同时,细节表现力增强后,无论是人物表情、光影效果还是场景布置,都能呈现得更加生动自