开启AI绘画 “工作流时代” 的神奇应用----Comfy UI | 使用CNB平台搭建ComfyUI

开启AI绘画 “工作流时代” 的神奇应用----Comfy UI | 使用CNB平台搭建ComfyUI

文章目录

概要

ComfyUI 是一款基于节点流程的可视化 AI 生成工具,核心围绕 Stable Diffusion 等主流生成式 AI 算法构建,通过图形化节点拆解生成全流程,实现从文本 / 图像输入到图像 / 视频输出的 “精准可控创作”。

腾讯云 CNB(Cloud Native Build,官网:cnb.cool)是基于 Docker 生态的云原生开发协作平台,核心定位是通过容器化技术与资源池化能力,为开发者提供 “一键就绪” 的远程开发环境,尤其聚焦开源项目协作与 AI 工具落地,无需本地配置复杂硬件与环境即可开展开发、测试与创作。链接:cnb

操作流程

接下来展示使用腾讯云cnb搭建comfyui的流程:

(1)到CNB网站 fork 项目
链接:cnb
可以直接使用已经搭建好的comfyui 仓库,避免配置环境的时间,我是用的模板项目如下:comfyui_base

进入项目界面后需要fork项目到自己的账户,第一次登录时没有组织,需要创建一个组织(内容随便写),仓库名可以稍微做些修改,比如后面加个123.--------fork整个仓库。

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

(2)启动项目
到自己的仓库启动项目,点击comfyui起飞。

在这里插入图片描述

在终端输入 y 可以启动项目

在这里插入图片描述

启动项目后点击弹出的链接会显示下面的界面:

在这里插入图片描述

下载模型:
模型地址:模型地址

在这里插入图片描述


复制模型的下载链接:

在这里插入图片描述

执行下载命令:
需要将模型放到 /workspace/ComfyUI/models/checkpoints 路径下:
执行命令代码如下:

aria2c https://cnb.cool/ai-models/stable-diffusion-v1-5/stable-diffusion-v1-5/-/lfs/6ce0161689b3853acaa03779ec93eafe75a02f4ced659bee03f50797806fa2fa?name=v1-5-pruned-emaonly.safetensors 
在这里插入图片描述

重新启动应用,选择下载的模型,点击运行就可以出图了。

在这里插入图片描述


还可以安装一个节点,点击Manager,下载crystools节点,安装完之后点击restart,重启成功后在进入comfyui

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述


(3)同步到自己仓库
回到后台,将增加的内容同步到自己的仓库,无需构建镜像,使用命令如下:

cd /workspace find /workspace/ComfyUI/custom_nodes -mindepth 2-type d -name ".git"-exec rm -rf {}+ git add . git commit -m "同步更新" git push 
在这里插入图片描述


使用 kill 1 可以关闭项目页面

在这里插入图片描述

Read more

量化、算子融合、内存映射:C语言实现AI推理的“三板斧“

量化、算子融合、内存映射:C语言实现AI推理的“三板斧“

量化、算子融合、内存映射:C语言实现AI推理的"三板斧" 摘要:做嵌入式AI开发的同学,大概率都遇到过这样的困境:训练好的AI模型(比如CNN),在PC上用TensorFlow/PyTorch跑起来流畅丝滑,可移植到单片机、MCU等边缘设备上,要么内存爆掉,要么推理延迟高到无法使用——毕竟边缘设备的资源太有限了:几百KB的RAM、几MB的Flash、没有GPU加速,甚至连浮点运算都要靠软件模拟。这时,依赖庞大的深度学习框架就成了“杀鸡用牛刀”,甚至根本无法运行。而C语言,作为嵌入式开发的“母语”,凭借其极致的性能控制、内存可控性和无 runtime 依赖的优势,成为边缘设备AI推理引擎的最佳选择。但纯C语言实现AI推理,绝不是简单地“用C重写框架代码”,关键在于掌握三大核心优化技术——这就是我们今天要讲的AI推理“三板斧”:量化、算子融合、内存映射。 它们三者协同作用,能从“体积、速度、内存”三个维度彻底优化AI推理性能:

Qwen vs Stable Diffusion:儿童风格图片生成部署对比评测

Qwen vs Stable Diffusion:儿童风格图片生成部署对比评测 1. 为什么儿童向图片生成需要专门优化? 给小朋友看的图片,不是随便画得可爱就行。它得安全、温和、色彩明亮、造型圆润,不能有尖锐线条、复杂背景或任何可能引发不安的元素。很多通用模型生成的动物图,要么太写实吓人,要么细节混乱——比如长了三只眼睛的兔子、背景里突然冒出的模糊人影,或者颜色阴沉的森林场景。这些在成人内容里可能只是小瑕疵,在儿童场景里却是硬性红线。 Qwen_Image_Cute_Animal_For_Kids 这个镜像,不是简单套了个“儿童”标签。它背后是通义千问多模态能力的定向蒸馏与风格对齐:训练数据全部来自经过人工筛选的低龄向插画资源库,提示词模板固化为“soft lighting, rounded shapes, pastel colors, friendly expression, no text, no complex background”,连采样步数和CFG值都预设为对萌系特征最友好的区间。

安卓端 AI 绘画新突破:local-dream 项目让 Stable Diffusion 在手机端高效运行,骁龙 NPU 加速加持

安卓端AI绘画新突破:local-dream项目让Stable Diffusion在手机端高效运行,骁龙NPU加速加持 在AI绘画技术飞速发展的当下,Stable Diffusion作为主流模型,凭借出色的图像生成能力备受青睐。然而,其对硬件性能的较高要求,使得多数用户只能在电脑端体验。不过,随着“local-dream”项目的出现,这一局面被彻底打破。该项目专注于让安卓设备流畅运行Stable Diffusion模型,不仅支持高通骁龙NPU加速,还兼容CPU/GPU推理,为移动设备AI绘画开辟了全新路径。 项目核心目标与基础信息 “local-dream”项目的核心目标清晰明确,就是打破硬件限制,让安卓用户无需依赖高性能电脑,在手机或平板上就能轻松体验Stable Diffusion模型的强大图像生成功能。无论是日常创作、创意设计,还是简单的图像生成需求,用户都能随时随地通过安卓设备完成。 对于想要了解和使用该项目的用户,关键信息必不可少。项目的GitHub地址为https://github.com/xororz/local-dream,用户可以在这里获取项目的源代码、详细

LLaMAFactory、ModelScope 大模型微调实战(下)

LLaMAFactory、ModelScope 大模型微调实战(下)

一、前言 上次简单介绍了下 LLaMAFactory、ModelScope的微调,今天再来总结下如何部署已经微调好的大模型。 直通车→→→ https://blog.ZEEKLOG.net/tadexinnian/article/details/159154443 本次演示基于魔搭社区(https://www.modelscope.cn/my/mynotebook) 二、将模型转换为gguf 2.1 克隆llama.cpp 并安装环境依赖 -- 进入根目录 cd /mnt/workspace -- 需要用 llama.cpp 仓库的 convert_hf_to_gguf.py 脚本来转换 git clone https://github.com/