20260121荣品RD-RK3588开发板在荣品Android13下解决打包不上无人机的QGC应用APK的问题

20260121荣品RD-RK3588开发板在荣品Android13下解决打包不上无人机的QGC应用APK的问题

20260121荣品RD-RK3588开发板在荣品Android13下解决打包不上无人机的QGC应用APK的问题
2026/1/21 16:04


需要打包的APK:
1、HelloWorld
2、QGroundControl.apk
3、VStation-2024_12_18-release.apk
4、微信
5、QQ
6、高德


1、QQ可以直接登录
2、微信反复出错。修复之后 还是 不行。
3、高德地图 需要下载新的APK。

不能打开的应该是有APK里的资源文件漏加了


我司 【客户】必须要使用 QGC这个APK
BING搜索:qgroundcontrol官网

https://docs.qgroundcontrol.com/Stable_V5.0/en/qgc-user-guide/getting_started/download_and_install.html

Android
Supported versions: Android 9 to 15 (arm 32/64):

Android 32/64 bit APK


https://github.com/mavlink/QGroundControl/releases
QGroundControl v5.0.8 - Stable

QGroundControl.apk
sha256:52697494aa82e9f1ca00fb1181a67397d5a5c814c17a810fd521b161d0cc9a02
279 MB
Oct 9, 2025


据悉:QGC是 跨平台 使用 QT?框架 开发的兼容APK
不是 Anroid Studio开发的原生APK


飞凌OK3588-C开发板,贵司发布的Android12/14的SDK。
原始的hello world的APK【使用Android Studio开发】是可以 使用你给的教程集成进去的。?
有点思路,正在查询一些信息

@品灵-张涛? 您好 张工,因为这个属于您这边一个新增的功能,我们需要根据您的需求单独定制了[捂脸]考虑到贵司是我们的重点客户,我们基于您的需求让技术先看看有没有什么方法,所以需要一定的时间[握手] 


张工,您改下这里试试,应该是APK里的签名不是平台的原因,这边测试改过去就好了
按照之前的文档,第一次放在这个路径编译的时候会自动生成这个文件夹
后续改成platform就可以了


打包APK:

1、新建:preinstall 目录,将需要打包的APK放到这个目录
Z:\MID_rk-android13-20250818\device\rockchip\rk3588\rk3588_t\preinstall


2、更新编译系统:

rootroot@rootroot-X99-Turbo:~/MID_rk-android13-20250818$ 
rootroot@rootroot-X99-Turbo:~/MID_rk-android13-20250818$ ./build.sh init
6. rk3588
Please input num: 6
7. rd-rk3588.mk
Please input num: 7
rootroot@rootroot-X99-Turbo:~/MID_rk-android13-20250818$ ./build.sh 


3、Vstation和QGC打不上。需要更新它俩的Android.mk

LOCAL_CERTIFICATE := PRESIGNED
修改为:
LOCAL_CERTIFICATE := platform

 

LOCAL_PATH := $(my-dir)

include $(CLEAR_VARS)
LOCAL_MODULE := VStation-2024_12_18-release
LOCAL_MODULE_CLASS := APPS
LOCAL_MODULE_PATH := $(TARGET_OUT_ODM)/bundled_persist-app
LOCAL_SRC_FILES := $(LOCAL_MODULE)$(COMMON_ANDROID_PACKAGE_SUFFIX)
LOCAL_CERTIFICATE := platform
LOCAL_DEX_PREOPT := false
LOCAL_ENFORCE_USES_LIBRARIES := false
LOCAL_MODULE_TAGS := optional
LOCAL_MODULE_SUFFIX := $(COMMON_ANDROID_PACKAGE_SUFFIX)
LOCAL_JNI_SHARED_LIBRARIES_ABI := arm64
MY_LOCAL_PREBUILT_JNI_LIBS := \
    lib/arm64/libAMapSDK_MAP_v7_4_0.so\
    lib/arm64/libBaiduMapSDK_base_v7_3_0.so\
    lib/arm64/libBaiduMapSDK_map_v7_3_0.so\
    lib/arm64/libViewLink.so\
    lib/arm64/libgnustl_shared.so\
    lib/arm64/libindoor.so\
    lib/arm64/liblocSDK7b.so\
    lib/arm64/liblocSDK8a.so\
    lib/arm64/libnative-lib.so\

MY_APP_LIB_PATH := $(TARGET_OUT_ODM)/bundled_persist-app/$(LOCAL_MODULE)/lib/$(LOCAL_JNI_SHARED_LIBRARIES_ABI)
ifneq ($(LOCAL_JNI_SHARED_LIBRARIES_ABI), None)
$(warning MY_APP_LIB_PATH=$(MY_APP_LIB_PATH))
LOCAL_POST_INSTALL_CMD :=     mkdir -p $(MY_APP_LIB_PATH)     $(foreach lib, $(MY_LOCAL_PREBUILT_JNI_LIBS), ; cp -f $(LOCAL_PATH)/$(lib) $(MY_APP_LIB_PATH)/$(notdir $(lib)))
endif
include $(BUILD_PREBUILT)


4、更新编译系统:【然后验证】

rootroot@rootroot-X99-Turbo:~/MID_rk-android13-20250818$ 
rootroot@rootroot-X99-Turbo:~/MID_rk-android13-20250818$ ./build.sh init
6. rk3588
Please input num: 6
7. rd-rk3588.mk
Please input num: 7
rootroot@rootroot-X99-Turbo:~/MID_rk-android13-20250818$ ./build.sh 


 

Read more

【AIGC】ChatGPT 实用技巧:文本与数据的结构化方法全解析

【AIGC】ChatGPT 实用技巧:文本与数据的结构化方法全解析

博客主页: [小ᶻ☡꙳ᵃⁱᵍᶜ꙳]本文专栏: AIGC |ChatGPT 文章目录 * 💯前言 * 💯中文排版序号 * 1. 一级标题(First-Level Title) * 2. 二级标题(Second-Level Title) * 3. 三级标题(Third-Level Title) * 4. 四级标题(Fourth-Level Title) * 💯Markdown 语法 * 一级标题(First-Level Heading) * 二级标题(Second-Level Heading) * 子标题(Subheadings) * 列表(Lists) * 无序列表 * 有序列表 * 加粗和斜体(Bold and Italics) * 加粗 * 斜体 * 💯编程语法也是结构化 * YAML 语法结构的例子 * 1. 层级关系(

记录一下使用llama.cpp过程中遇到的一些问题和解决方法

写在前面: 什么未操作即同意的条款?我写的东西免费分享也不是你能随意搬运的理由啊 特此声明,若该文章被搬运到除ZEEKLOG(www.ZEEKLOG.net)以外的其他社区如2048 AI社区,则视为该社区同意将所有收益无偿捐赠给我所有 此外,我写的所有分享都是免费的,如有VIP文章也是ZEEKLOG干的,请私信我修改成免费 起因:使用LMStudio调用AI模型时发现显存占用率一直不超过80%,询问AI解决办法无果后一怒之下换用llama.cpp,遇到了一堆AI解决不了的问题,遂记录 llama.cpp下载地址如下 https://github.com/ggml-org/llama.cpp/releases 以防万一 我老年痴呆说一下如何使用llama.cpp调用模型,把下面的代码保存成bat,放在和llama-server.exe同目录下,然后运行这个bat(确保模型位置选对,GPU_LAYERS和THREADS根据机器能力) @echo off setlocal set "MODEL_PATH=F:\Models\Yakyu&

在 Mac Mini M4 上本地跑大模型(Ollama + Llama + ComfyUI + Stable Diffusion | Flux)

在 Mac Mini M4 上本地跑大模型(Ollama + Llama + ComfyUI + Stable Diffusion | Flux)

Mac Mini M4 配备了苹果自家研发的 M1/M2/M4 芯片,具有强大的处理能力,能够支持本地跑一些大模型,尤其是在使用如 Ollama、Llama、ComfyUI 和 Stable Diffusion 这类 AI 相关工具时,性能表现非常好。本教程将指导你如何在 Mac Mini M4 上本地部署并运行这些大模型,涵盖从环境搭建到使用的全流程。 一、准备工作 1. 确保系统更新 确保你的 macOS 版本已更新到最新的版本(例如 macOS 13.0 以上),这将确保兼容性和性能。 安装 Homebrew(macOS 包管理工具) Homebrew 是 macOS 上非常流行的包管理工具,它帮助你方便地安装各种软件。在终端中输入以下命令来安装

2026 AI 编码工具终局对决:Claude Code、Cursor、GitHub Copilot 全维度拆解与最优选型指南

2026 AI 编码工具终局对决:Claude Code、Cursor、GitHub Copilot 全维度拆解与最优选型指南

2026 年,AI 编码已经彻底完成了从 “可选加分项” 到 “开发者刚需” 的全面渗透。行业数据给出了最直观的印证:95% 的开发者每周都会使用 AI 编码工具,75% 的开发者已经用 AI 完成了 50% 以上的编码工作。但与极高渗透率形成鲜明反差的是,绝大多数开发者都选错了适配自身工作流的工具 —— 很多人依然在跟风使用大众普及度最高的产品,却忽略了不同工具背后完全不同的设计哲学、能力边界与适用场景。 从 2021 年 GitHub Copilot 上线开启 AI 编码 1.0 时代,到 2026 年 AI 编码已经从 “单行代码补全” 进化到 “全流程自主工程化”,赛道已经形成了三大头部产品的三分天下格局:Anthropic 推出的 Claude Code、Anysphere 打造的