天马G前端的使用

天马G前端的使用

1 复古掌机的选择

最近搞了个手柄,正好有一个闲置的小米9,就想着看能不能装一个复古掌机出来。

其实市场上也有很多现成的复古掌机,目前主要是安卓和Linux两种。整体上看安卓的目前占优一点,因为除了大家都能玩的模拟器,安卓平台还能玩安卓的游戏。

项目Android 掌机Linux 掌机 (ArkOS / JELOS / Batocera)
启动速度20~40 秒5 秒以内
UI一致性❌ 多 app 无统一样式✅ 完整游戏平台风格
PS2(AetherSX2)✅ 可玩(Snapdragon / Dimensity / Unisoc)❌ 官方 Linux 版 core 不成熟
Switch(Yuzu)✅ 安卓有社区版 Yuzu❌ 完全无解
PSP/NDS/GBA etc✅ 但调用 APK,界面割裂✅ 全集成 Core,UI统一
云游戏 / Steam Link✅ 完全支持⚠️ 只能 Moonlight(若有 Core)
系统自由度限制 root,定制难✅ 想怎么魔改都行
易用性✅ 下载 ROM → 配 APK → 玩⚠️ 需要 BIOS / Core 手动配置
适合人群玩模拟器 + 云游戏 + 装APP想要 “开机就是游戏机” 的感觉
视觉体验类似安卓电视盒 + 各种前端像原生游戏机固件,主题风统一

有一个很奇怪点,安卓其实也是Linux的魔改版,为什么有些模拟器目前只能在安卓上运行。查了一下,这个就完全是生态和个人原因了。PS2模拟器的作者Tahlreth只开发了AetherSX2 for Android,其中使用了Android NDK + Vulkan/OpenGL ES来实现JIT。这些都几乎是安卓平台独有的,无法直接移植到Linux。

JIT / 动态重编译器(Dynarec)

JIT(即时编译)/ 动态重编译器(Dynarec)是模拟器、虚拟机等场景中核心的性能优化技术,它能在程序(如游戏 ROM 指令)运行时,将宿主设备不兼容的原始指令(如游戏机专属指令集)实时转换为宿主硬件可直接执行的机器码,而非逐条解释执行;同时,它会持续监测并识别频繁执行的 “热点代码”,通过函数内联、循环展开等优化手段生成更高效的机器码,大幅减少指令翻译开销,让原本因 “指令不兼容 + 解释低效” 卡顿的程序(如 PS2、Switch 游戏模拟),在手机、电脑等设备上实现流畅运行,平衡了跨平台兼容性与执行效率。

就复古掌机来说,最难的部分其实就是模拟器。涉及到对汇编指令的模拟和调度,也就是上面的JIT。之前写过一点GB的模拟器,后面空了发出来。

再看看市场的情况,截至今天2025/10/11。用很火的安伯尼克来看。

35XX是T700,1 颗 2.5GHz 的 Cortex-A76 大核、3 颗 2.3GHz 的 Cortex-A76 大核。406V是T820, 1 颗 2.7GHz 的 Cortex-A76 大核、3 颗 2.3GHz 的 Cortex-A76 大核。总体来说性能有提升,但是提升不大。可是价格却翻了2~3倍。

正好手里有一个闲置的小米9,配置高通骁龙 855 处理器。对比T820,855 单核几乎翻倍,整体多核也 1.5–2 倍以上。同时855GPU性能是T820的3倍以上。

而年初买的二手的小米9多少钱呢,350,现在可能还更便宜。自己再加上一个手机手柄,加完也就只是406V一半的价格,目前市场上的安卓掌机价格偏贵是不争的事实。自己动手价格减半,性能翻倍,中间还可以学一些知识。所以折腾一下小米9,看来是更明智的选择。。。

2 天马G前端的安装

看了一下,目前国内流行的就是天马G的前端。现在不管是玩家还是工作室,几乎都用的这个。

在网上买了一套包,照着安装即可。(在B站也很多,感觉也是可以用的)

安装分成三个步骤,首先是App,然后是配置,最后是Roms。

2.1 APKS

大概是这些内容,MT管理器是用来拷贝文件的,天马G就是整体入口,用的最多的其实还是RA,其它的就是各个单独的模拟器。我是用adb装过去的。安装完成之后启动一下赋予权限,不需要再高别的什么。

3.2 配置

配置有3个,PG_安卓主题包 v1.2 230514.zip,PG_天马G 安卓配置 v1.2 230415.zip,最后有一个Android文件夹。

这里PG_安卓主题包 v1.2 230514.zip,PG_天马G 安卓配置 v1.2 230415.zip都是天马G的配置文件,然后有一些金手指,文件存档之类。

还有一个Android的文件夹。

原因如下:

在 Android 11 及以上系统中,每个 App 的数据目录(Android/data/包名)是受系统沙盒保护的,普通文件管理器无法直接写入。
但天马 G 前端要让多个独立 App(Pegasus、RetroArch、AetherSX2)共享配置文件、ROM 路径和启动脚本,因此需要提前把它们的配置放好。

所以目前这部分只能手动弄。

3.3 Roms

Rom的内容就比较敏感的,就是合法与非法的区别,所以模拟器或者各大工作室,是不会提供ROM的,起码明面上不会,这些就要自己去找。不过好在国内这部分有现成的,就是跳坑者联盟有一个整合包,里面内容还挺全的。现在网上基本都是他家的。

Rom就是正常的游戏镜像,照理说直接拷贝到SD卡或者手机上就行了,但是天马G毕竟显示牛批嘛。所以根据天马前端UI的要求,要增加一些文件。

以恶魔城,白夜协奏曲为例,大概是这些文件。

一个主图,一个副图,一个介绍动画。

此外整体还有一个metadata,直接用精简包里面的即可。弄完之后放在手机根目录的 Roms下面。

如果是用的跳坑者联盟的发布,这些内容在精简包里面都是做好了的。

3.4 运行

比想的要顺利一点。

首先界面确实华丽了不少,比起一般linux掌机就是文字,确实好看也方便了很多。

使用USB直接外接的手柄,也是非常方便,几乎感觉不到延迟。

但是手机也有自己的问题,主要就是屏幕尺寸,运行很多游戏时,两边会有很大的黑边,影响了一部分游戏感受。不过PSP就看着好很多。

总体还是满意的,钱省了,然后闲置的物品也利用起来了,探索技术的心情也满足了。

3 天马G的技术原理

 天马G其实也是一个开源项目,官网地址是:https://pegasus-frontend.org/

其实和之前认为的有点点区别,天马G还真就只是一个前端,所有干的事情就相当于一个ROM管理器和模拟器启动器launcher。所有的核心内容,还是依赖于各家模拟器自己的APK。

整套本身实现是基于QT,所以才看到天马G现在有那么多平台。其实功能本身不复杂,也没有太核心的技术,还是调用第三方的模拟器。看了一下,Android的核心代码如下:

 public static String launchAmCommand(String[] args_arr) { final LinkedList<String> args = new LinkedList(Arrays.asList(args_arr)); if (args.isEmpty()) return "No arguments provided to 'am'"; final String am_command = args.pop().toLowerCase(); if (!am_command.equals("start")) return "For 'am', only the 'start' command is supported at the moment, '" + am_command + "' is not"; try { Intent intent = IntentHelper.parseIntentCommand(args); intent.addFlags(Intent.FLAG_ACTIVITY_NEW_TASK); intent.addFlags(Intent.FLAG_GRANT_READ_URI_PERMISSION); m_self.startActivity(intent); } catch (Exception e) { return e.toString() + ": " + e.getMessage(); } return null; }

拼接好参数,JNI直接startActivity去调用三方模拟器。天马G提供的,就是一套UI框架,也只有一套这个。如果你直接装一个RetroArch,感觉其实也能玩,还方便很多。

4 FPGA的扩充

对模拟器本身还是挺关注的,能否接一个FPGA来提升性能呢?将来的将来的将来再看吧。。。

Read more

llama.cpp量化模型部署实战:从模型转换到API服务

1. 为什么你需要关注llama.cpp:让大模型在普通电脑上跑起来 如果你对AI大模型感兴趣,肯定听说过动辄需要几十GB显存的“庞然大物”。想在自己的电脑上跑一个7B参数的模型,以前可能得配一张昂贵的专业显卡。但现在,情况不一样了。我今天要跟你聊的 llama.cpp,就是那个能让大模型“瘦身”并飞入寻常百姓家的神奇工具。 简单来说,llama.cpp是一个用C/C++编写的开源项目,它的核心目标只有一个:用最高效的方式,在消费级硬件(比如你的笔记本电脑CPU)上运行大型语言模型。它不像PyTorch那样是个庞大的深度学习框架,它更像一个“推理引擎”,专注于把训练好的模型,以最小的资源消耗跑起来。 我刚开始接触大模型部署时,也被各种复杂的依赖和巨大的资源需求劝退过。直到用了llama.cpp,我才发现,原来在我的MacBook Pro上,也能流畅地和Llama 2这样的模型对话。这背后的功臣,主要就是两点:纯C/C++实现带来的极致性能,以及模型量化技术带来的体积与速度革命。量化这个词听起来有点技术,你可以把它想象成给模型“压缩图片”

AI写作大师-Qwen3-4B-Instruct多行业落地:教育出题、法律文书、电商文案

AI写作大师-Qwen3-4B-Instruct多行业落地:教育出题、法律文书、电商文案 1. 这不是普通AI,是能“想清楚再动笔”的写作伙伴 你有没有遇到过这样的情况: * 教师要出一套覆盖知识点、难度梯度合理、题干严谨的月考卷,手动编题花掉整个周末; * 律师助理需要在30分钟内整理一份格式规范、条款无歧义、引用准确的合同初稿; * 电商运营盯着100款新品发愁——每款都要写5条不同风格的详情页文案,还要兼顾转化率和平台规则。 过去,这些任务要么靠经验堆时间,要么靠模板硬套,结果不是千篇一律,就是漏洞百出。而今天,Qwen3-4B-Instruct 不是“快速生成”,而是“理解之后再表达”——它不急着输出,先拆解逻辑、对齐标准、预判风险,再落笔成文。 这不是参数堆出来的“大”,而是推理链拉得够长、知识面铺得够宽、语言组织够严密的“实”。40亿参数不是数字游戏,它意味着模型能记住更复杂的上下文关系,能在2000字的法律条款里保持主谓一致、术语统一、逻辑闭环;能在一道物理题的解析中,自动补全隐含条件、标注易错点、

Mac M系列芯片适配:mlc-llm与llama.cpp对比

Mac M系列芯片适配:mlc-llm与llama.cpp对比 在大语言模型(LLM)逐步从云端走向本地终端的今天,如何在消费级设备上高效运行数十亿参数的模型,成为开发者和研究者共同面对的挑战。苹果自推出搭载M系列芯片的Mac以来,其基于ARM架构的统一内存架构(UMA)与强大的GPU性能,为本地化推理提供了前所未有的硬件基础。然而,由于主流深度学习生态长期依赖CUDA,而Mac缺乏NVIDIA GPU支持,使得多数框架难以直接发挥其全部潜力。 在此背景下,mlc-llm 与 llama.cpp 脱颖而出——它们不依赖传统深度学习运行时,而是通过底层优化,在Apple Silicon上实现了令人惊喜的推理效率。两者路径迥异:一个走“编译驱动、GPU加速”的技术路线,另一个则坚持“极简主义、CPU优先”的哲学。究竟谁更适合你的使用场景?本文将深入剖析二者在Mac平台的技术实现、性能表现与适用边界。 技术内核解析:两条不同的优化路径 mlc-llm:用编译器挖掘Metal的极限算力 mlc-llm并非简单的推理引擎,它本质上是一个面向大模型的端到端编译系统。其核心思想是利用TV

Whisper.cpp CUDA加速实战:让语音识别速度飙升7倍!

Whisper.cpp CUDA加速实战:让语音识别速度飙升7倍! 【免费下载链接】whisper.cppOpenAI 的 Whisper 模型在 C/C++ 中的移植版本。 项目地址: https://gitcode.com/GitHub_Trending/wh/whisper.cpp 在语音识别技术快速发展的今天,OpenAI Whisper模型凭借其卓越的准确性和多语言支持能力,已成为行业标杆。然而,传统的CPU计算模式在处理长音频或大型模型时往往力不从心。whisper.cpp作为Whisper的C++实现,通过集成NVIDIA CUDA技术,为开发者提供了突破性的性能提升方案,让语音识别应用真正实现实时响应。 快速上手:环境配置与项目准备 系统环境检查清单 在开始配置前,请确认你的开发环境满足以下要求: 硬件配置: * NVIDIA GPU(计算能力≥3.5) * 8GB以上系统内存 * 充足的硬盘存储空间 软件依赖: * CUDA