手机上也能运行Stable Diffusion?Github上开源且完全免费的AI生图软件!斩获1.4K Stars

手机上也能运行Stable Diffusion?Github上开源且完全免费的AI生图软件!斩获1.4K Stars

Hello,大家好!

今天给大家分享一款GitHub上1.4k星标的开源神器——手机端AI绘画工具,

软件已经整理在文末,有需要的朋友记得获取保存哦~

 链接:https://pan.quark.cn/s/fa5abdb93460

一、软件打开方式

这款工具为安卓APK安装包,共提供两个版本:带过滤器版本和不带过滤器版本,大家可以根据自己的需求选择。下载后直接安装到手机上即可运行,无需复杂配置。

二、软件的功能介绍

这是一款让安卓手机直接运行Stable Diffusion的AI绘画工具,主要特色包括:

全功能AI绘画

支持文生图:输入提示词一键生成图像

支持图生图:导入参考图片二次创作

支持图像修复:模糊图片一键变清晰

多模式加速

支持CPU/GPU/NPU三种运行模式

高通骁龙处理器可启用NPU加速,生成速度极快

非骁龙处理器也可用CPU/GPU流畅运行

开源免费

GitHub开源项目,完全免费无限制

模型可自由下载切换

三、使用指南

第一步:安装与首次设置

下载APK文件并安装至安卓手机

打开软件,首次使用会弹出处理器识别提示

高通骁龙处理器可开启NPU加速,非骁龙选择CPU/GPU模式

重要设置:点击「设置」→ 将下载源从默认地址切换为hf开头的镜像源,否则模型无法下载

第二步:下载模型

根据处理器类型选择对应模型

骁龙用户选择NPU模型(推荐1.1GB版本)

点击确定,软件自动下载并解压

等待解压完成即可使用

第三步:文生图操作

选择已下载的模型

输入提示词(支持中文)

点击「生成图像」

NPU加速下,生成一张图仅需3秒以内

生成完成后点击右上角保存按钮,图片保存至手机相册

点击「历史」可查看过往生成记录

第四步:图像修复

点击软件右上角魔法棒图标

选择需要变清晰的图片

选择动漫或真实模型

一键优化,模糊图秒变高清

第五步:图生图操作

选择模型

导入参考图片

软件自动基于参考图生成新图像

支持高级设置:分辨率、调度器等参数可手动调整

四、使用体验

以前想在手机上跑Stable Diffusion,要么得租云端服务器,要么得折腾PC远程连接。现在好了,一个APK装完,手机直接变身AI画室。

骁龙用户开NPU,三秒一张图,丝滑得不像是在跑AI;非骁龙用户用CPU模式,虽然慢一点,但也能完整跑通。文生图、图生图、老照片修复,桌面端能做的事手机一样不少。整套工具已打包整理,方便大家一次性获取使用,有需要的朋友快去下载试试吧!

五、下载链接

链接:https://pan.quark.cn/s/fa5abdb93460

Read more

彻底解决llama.cpp项目CUDA编译难题:从环境配置到性能优化全指南

彻底解决llama.cpp项目CUDA编译难题:从环境配置到性能优化全指南 【免费下载链接】llama.cppPort of Facebook's LLaMA model in C/C++ 项目地址: https://gitcode.com/GitHub_Trending/ll/llama.cpp 你是否在编译llama.cpp时遭遇过CUDA相关的"nvcc not found"错误?是否尝试启用GPU加速却始终无法识别显卡?本文将系统梳理llama.cpp项目中CUDA编译的常见问题,提供从环境配置到高级优化的完整解决方案,让你的NVIDIA显卡充分释放AI计算潜能。 CUDA编译基础与环境检查 llama.cpp通过CUDA后端实现NVIDIA GPU加速,其核心配置位于CMakeLists.txt构建系统中。官方推荐的基础编译命令看似简单: cmake -B build -DGGML_CUDA=ON

AI编程工具深度对比:Cursor、Copilot、Trae与Claude Code,2025年开发者该如何选择?

2025年,AI编程助手已从新奇技术演变为生产力核心,但面对众多选择,开发者如何才能找到最适合自己的智能编程伙伴? 一、四大AI编程工具的核心定位与市场格局 2025年的AI编程工具市场已经形成了明显的分层格局。根据最新的开发者使用数据,这些工具不再仅仅是代码补全助手,而是朝着专业化、场景化方向发展。

vs code 中内置的聊天是 GitHub Copilot Chat 吗

vs code 中内置的聊天是 GitHub Copilot Chat 吗

vs code 中内置的聊天是 GitHub Copilot Chat 吗 vs code 中内置的聊天要分情况讨论: 1. VS Code 内置的聊天(“Ask Cody”):不是 GitHub Copilot Chat VS Code 在 2023 年底(1.85 版本)引入了一个内置的聊天侧边栏,它的默认提供者是 VS Code 自己的 AI 助手 “Cody”。 * 这个功能是 VS Code 编辑器的一部分,图标通常是一个对话框气泡 💬。 * 它的目标是提供与编辑器深度集成的通用编程帮助,例如解释代码、生成代码、问答等。 * 它不一定与你的 GitHub Copilot 订阅绑定,即使你没有订阅

Llama.cpp 全实战指南:跨平台部署本地大模型的零门槛方案

【个人主页:玄同765】 大语言模型(LLM)开发工程师|中国传媒大学·数字媒体技术(智能交互与游戏设计) 深耕领域:大语言模型开发 / RAG知识库 / AI Agent落地 / 模型微调 技术栈:Python / LangChain/RAG(Dify+Redis+Milvus)| SQL/NumPy | FastAPI+Docker ️ 工程能力:专注模型工程化部署、知识库构建与优化,擅长全流程解决方案        「让AI交互更智能,让技术落地更高效」 欢迎技术探讨/项目合作! 关注我,解锁大模型与智能交互的无限可能! 摘要 本文全面解析轻量级大模型推理框架 Llama.cpp,详细讲解其在 Windows(Winget)、Linux、macOS 三大平台的安装步骤,针对新手优化了模型获取、文件整理、可视化部署的全流程,涵盖命令行交互、OpenAI