手机上也能运行Stable Diffusion?Github上开源且完全免费的AI生图软件!斩获1.4K Stars

手机上也能运行Stable Diffusion?Github上开源且完全免费的AI生图软件!斩获1.4K Stars

Hello,大家好!

今天给大家分享一款GitHub上1.4k星标的开源神器——手机端AI绘画工具,

软件已经整理在文末,有需要的朋友记得获取保存哦~

 链接:https://pan.quark.cn/s/fa5abdb93460

一、软件打开方式

这款工具为安卓APK安装包,共提供两个版本:带过滤器版本和不带过滤器版本,大家可以根据自己的需求选择。下载后直接安装到手机上即可运行,无需复杂配置。

二、软件的功能介绍

这是一款让安卓手机直接运行Stable Diffusion的AI绘画工具,主要特色包括:

全功能AI绘画

支持文生图:输入提示词一键生成图像

支持图生图:导入参考图片二次创作

支持图像修复:模糊图片一键变清晰

多模式加速

支持CPU/GPU/NPU三种运行模式

高通骁龙处理器可启用NPU加速,生成速度极快

非骁龙处理器也可用CPU/GPU流畅运行

开源免费

GitHub开源项目,完全免费无限制

模型可自由下载切换

三、使用指南

第一步:安装与首次设置

下载APK文件并安装至安卓手机

打开软件,首次使用会弹出处理器识别提示

高通骁龙处理器可开启NPU加速,非骁龙选择CPU/GPU模式

重要设置:点击「设置」→ 将下载源从默认地址切换为hf开头的镜像源,否则模型无法下载

第二步:下载模型

根据处理器类型选择对应模型

骁龙用户选择NPU模型(推荐1.1GB版本)

点击确定,软件自动下载并解压

等待解压完成即可使用

第三步:文生图操作

选择已下载的模型

输入提示词(支持中文)

点击「生成图像」

NPU加速下,生成一张图仅需3秒以内

生成完成后点击右上角保存按钮,图片保存至手机相册

点击「历史」可查看过往生成记录

第四步:图像修复

点击软件右上角魔法棒图标

选择需要变清晰的图片

选择动漫或真实模型

一键优化,模糊图秒变高清

第五步:图生图操作

选择模型

导入参考图片

软件自动基于参考图生成新图像

支持高级设置:分辨率、调度器等参数可手动调整

四、使用体验

以前想在手机上跑Stable Diffusion,要么得租云端服务器,要么得折腾PC远程连接。现在好了,一个APK装完,手机直接变身AI画室。

骁龙用户开NPU,三秒一张图,丝滑得不像是在跑AI;非骁龙用户用CPU模式,虽然慢一点,但也能完整跑通。文生图、图生图、老照片修复,桌面端能做的事手机一样不少。整套工具已打包整理,方便大家一次性获取使用,有需要的朋友快去下载试试吧!

五、下载链接

链接:https://pan.quark.cn/s/fa5abdb93460

Read more

Stable Diffusion显存管理技术解析与优化实践

Stable Diffusion显存管理技术解析与优化实践 【免费下载链接】sd-webui-memory-releaseAn Extension for Automatic1111 Webui that releases the memory each generation 项目地址: https://gitcode.com/gh_mirrors/sd/sd-webui-memory-release 在AI绘画创作过程中,显存管理问题常常成为影响创作体验的关键因素。许多用户在连续生成图像时会遇到显存不足的困扰,这不仅打断了创作流程,还可能造成时间与精力的浪费。针对这一痛点,SD WebUI Memory Release扩展应运而生,为创作者提供了专业的显存管理解决方案。 技术原理深度剖析 显存占用机制解析 现代深度学习框架在执行推理任务时,会在显存中缓存中间计算结果和模型权重。这种缓存机制虽然能提升计算效率,但在连续生成场景下容易导致显存碎片化和内存泄漏问题。具体表现为: * 计算图缓存:PyTorch框架为优化计算性能而保留的计算图结构 * 模型权重驻留:加载的检

GitHub Copilot转变为兼容API

解锁GitHub Copilot全场景使用!copilot-api让Copilot兼容OpenAI/Anthropic生态 作为开发者,你是否曾因GitHub Copilot仅能在指定IDE中使用而感到受限?是否想让Copilot对接Raycast、Claude Code等工具,却苦于接口不兼容?由ericc-ch开发的copilot-api项目给出了完美答案——这是一个反向工程实现的GitHub Copilot API代理,能将Copilot封装为兼容OpenAI和Anthropic规范的API服务,让你在任意支持该规范的工具中轻松调用Copilot能力,彻底解锁Copilot的全场景使用潜力。 项目核心价值:打破生态壁垒,复用Copilot订阅 GitHub Copilot凭借优秀的代码补全、推理能力成为开发者必备工具,但原生仅支持VS Code、JetBrains等少数IDE,且无公开的标准API接口。而copilot-api的核心作用,就是架起Copilot与OpenAI/Anthropic生态的桥梁: * 对于拥有Copilot订阅(个人/企业/商业版)的开发者,

vs code 中内置的聊天是 GitHub Copilot Chat 吗

vs code 中内置的聊天是 GitHub Copilot Chat 吗

vs code 中内置的聊天是 GitHub Copilot Chat 吗 vs code 中内置的聊天要分情况讨论: 1. VS Code 内置的聊天(“Ask Cody”):不是 GitHub Copilot Chat VS Code 在 2023 年底(1.85 版本)引入了一个内置的聊天侧边栏,它的默认提供者是 VS Code 自己的 AI 助手 “Cody”。 * 这个功能是 VS Code 编辑器的一部分,图标通常是一个对话框气泡 💬。 * 它的目标是提供与编辑器深度集成的通用编程帮助,例如解释代码、生成代码、问答等。 * 它不一定与你的 GitHub Copilot 订阅绑定,即使你没有订阅

LLaMA-Factory安装教程(详细版)

LLaMA-Factory安装教程(详细版)

本机显卡双3090 使用wsl中ubuntu torch==2.6.0 conda==24.5.0 cuda==12.4 python==3.12.4(python安装不做赘述,有需要我会另开一篇文章) 一、准备工作 首先,在 https://developer.nvidia.com/cuda-gpus 查看您的 GPU 是否支持CUDA。 保证当前 Linux 版本支持CUDA. 在命令行中输入  uname -m && cat /etc/*release 输出如下,不一定完全一样,类似即可 检查是否安装了 gcc . 在命令行中输入 gcc --version