手机上也能运行Stable Diffusion?Github上开源且完全免费的AI生图软件!斩获1.4K Stars

手机上也能运行Stable Diffusion?Github上开源且完全免费的AI生图软件!斩获1.4K Stars

Hello,大家好!

今天给大家分享一款GitHub上1.4k星标的开源神器——手机端AI绘画工具,

软件已经整理在文末,有需要的朋友记得获取保存哦~

 链接:https://pan.quark.cn/s/fa5abdb93460

一、软件打开方式

这款工具为安卓APK安装包,共提供两个版本:带过滤器版本和不带过滤器版本,大家可以根据自己的需求选择。下载后直接安装到手机上即可运行,无需复杂配置。

二、软件的功能介绍

这是一款让安卓手机直接运行Stable Diffusion的AI绘画工具,主要特色包括:

全功能AI绘画

支持文生图:输入提示词一键生成图像

支持图生图:导入参考图片二次创作

支持图像修复:模糊图片一键变清晰

多模式加速

支持CPU/GPU/NPU三种运行模式

高通骁龙处理器可启用NPU加速,生成速度极快

非骁龙处理器也可用CPU/GPU流畅运行

开源免费

GitHub开源项目,完全免费无限制

模型可自由下载切换

三、使用指南

第一步:安装与首次设置

下载APK文件并安装至安卓手机

打开软件,首次使用会弹出处理器识别提示

高通骁龙处理器可开启NPU加速,非骁龙选择CPU/GPU模式

重要设置:点击「设置」→ 将下载源从默认地址切换为hf开头的镜像源,否则模型无法下载

第二步:下载模型

根据处理器类型选择对应模型

骁龙用户选择NPU模型(推荐1.1GB版本)

点击确定,软件自动下载并解压

等待解压完成即可使用

第三步:文生图操作

选择已下载的模型

输入提示词(支持中文)

点击「生成图像」

NPU加速下,生成一张图仅需3秒以内

生成完成后点击右上角保存按钮,图片保存至手机相册

点击「历史」可查看过往生成记录

第四步:图像修复

点击软件右上角魔法棒图标

选择需要变清晰的图片

选择动漫或真实模型

一键优化,模糊图秒变高清

第五步:图生图操作

选择模型

导入参考图片

软件自动基于参考图生成新图像

支持高级设置:分辨率、调度器等参数可手动调整

四、使用体验

以前想在手机上跑Stable Diffusion,要么得租云端服务器,要么得折腾PC远程连接。现在好了,一个APK装完,手机直接变身AI画室。

骁龙用户开NPU,三秒一张图,丝滑得不像是在跑AI;非骁龙用户用CPU模式,虽然慢一点,但也能完整跑通。文生图、图生图、老照片修复,桌面端能做的事手机一样不少。整套工具已打包整理,方便大家一次性获取使用,有需要的朋友快去下载试试吧!

五、下载链接

链接:https://pan.quark.cn/s/fa5abdb93460

Read more

GitHub Copilot转变为兼容API

解锁GitHub Copilot全场景使用!copilot-api让Copilot兼容OpenAI/Anthropic生态 作为开发者,你是否曾因GitHub Copilot仅能在指定IDE中使用而感到受限?是否想让Copilot对接Raycast、Claude Code等工具,却苦于接口不兼容?由ericc-ch开发的copilot-api项目给出了完美答案——这是一个反向工程实现的GitHub Copilot API代理,能将Copilot封装为兼容OpenAI和Anthropic规范的API服务,让你在任意支持该规范的工具中轻松调用Copilot能力,彻底解锁Copilot的全场景使用潜力。 项目核心价值:打破生态壁垒,复用Copilot订阅 GitHub Copilot凭借优秀的代码补全、推理能力成为开发者必备工具,但原生仅支持VS Code、JetBrains等少数IDE,且无公开的标准API接口。而copilot-api的核心作用,就是架起Copilot与OpenAI/Anthropic生态的桥梁: * 对于拥有Copilot订阅(个人/企业/商业版)的开发者,

智创 AI 新视界 -- AIGC 背后的深度学习魔法:从原理到实践

智创 AI 新视界 -- AIGC 背后的深度学习魔法:从原理到实践

💖💖💖亲爱的朋友们,热烈欢迎你们来到 青云交的博客!能与你们在此邂逅,我满心欢喜,深感无比荣幸。在这个瞬息万变的时代,我们每个人都在苦苦追寻一处能让心灵安然栖息的港湾。而 我的博客,正是这样一个温暖美好的所在。在这里,你们不仅能够收获既富有趣味又极为实用的内容知识,还可以毫无拘束地畅所欲言,尽情分享自己独特的见解。我真诚地期待着你们的到来,愿我们能在这片小小的天地里共同成长,共同进步。💖💖💖 本博客的精华专栏: 1. 大数据新视界专栏系列:聚焦大数据,展技术应用,推动进步拓展新视野。 2. Java 大厂面试专栏系列:提供大厂面试的相关技巧和经验,助力求职。 3. Python 魅力之旅:探索数据与智能的奥秘专栏系列:走进 Python 的精彩天地,感受数据处理与智能应用的独特魅力。 4. Java 性能优化传奇之旅:铸就编程巅峰之路:如一把神奇钥匙,深度开启 JVM 等关键领域之门。丰富案例似璀璨繁星,引领你踏上编程巅峰的壮丽征程。 5. Java 虚拟机(

告别Midjourney付费!Qwen-Image-2512免费本地部署实战

告别Midjourney付费!Qwen-Image-2512免费本地部署实战 1. 写在前面:为什么你需要关注 Qwen-Image-2512 近年来,AI 图像生成技术飞速发展,从 DALL·E 到 Midjourney,再到 Stable Diffusion,每一次突破都让创意工作者眼前一亮。然而,大多数高性能模型要么闭源、要么收费,使用门槛高,且存在隐私泄露风险。 2025年底,阿里通义实验室开源了 Qwen-Image-2512 ——一款支持高精度文生图、具备卓越人物与自然场景还原能力的先进模型。它不仅在多个权威评测中超越同类开源方案,甚至在真实感、细节刻画和中文理解上媲美主流商业产品。 更关键的是:完全免费、可本地部署、无限次生成、支持中文提示词。 本文将基于 Qwen-Image-2512-ComfyUI 镜像,带你完成从零到出图的完整实践流程。无论你是设计师、内容创作者还是AI爱好者,都能通过本教程快速搭建属于自己的“私人绘图工作站”。 2. Qwen-Image-2512 的核心优势解析 2.1 真实感大幅提升,

深入 llama.cpp:llama-server-- 从命令行到HTTP Server(2)

深入 llama.cpp:llama-server-- 从命令行到HTTP Server(2)

前言        llama-server是llama.cpp中用于发布大模型服务的工具。它通过极简的命令行配置,将复杂的模型推理过程封装为通用的 HTTP 接口;在底层,它选择以纯 C++ 编写的 cpp-httplib 作为服务框架的底层。本章分为应用实战与底层架构两部分。首先,我们将介绍不同参数下的大模型服务发布;接着,我们将详细解析 cpp-httplib 在项目中的具体实现,帮助读者掌握该服务端在网络调度层面的运行逻辑。 目录 * 1 应用实战:启动大模型服务 * 2 架构解析:基于cpp-httplib的运行机制 1 应用实战:启动大模型服务        llama-server是一款轻量级、兼容 OpenAI API、用于提供大语言模型服务的 HTTP 服务器。在上节中,我们启动了llama-server,构建了本地的大模型服务。本节将在此基础上,进一步深入llama-server启动过程的参数设置,同时演示如何利用curl工具发起网络请求,以实测并验证服务的接口响应。 1.1 模型服务参数设置        llama-server支持自定义