开启AI绘画 “工作流时代” 的神奇应用----Comfy UI | 使用CNB平台搭建ComfyUI

开启AI绘画 “工作流时代” 的神奇应用----Comfy UI | 使用CNB平台搭建ComfyUI

文章目录

概要

ComfyUI 是一款基于节点流程的可视化 AI 生成工具,核心围绕 Stable Diffusion 等主流生成式 AI 算法构建,通过图形化节点拆解生成全流程,实现从文本 / 图像输入到图像 / 视频输出的 “精准可控创作”。

腾讯云 CNB(Cloud Native Build,官网:cnb.cool)是基于 Docker 生态的云原生开发协作平台,核心定位是通过容器化技术与资源池化能力,为开发者提供 “一键就绪” 的远程开发环境,尤其聚焦开源项目协作与 AI 工具落地,无需本地配置复杂硬件与环境即可开展开发、测试与创作。链接:cnb

操作流程

接下来展示使用腾讯云cnb搭建comfyui的流程:

(1)到CNB网站 fork 项目
链接:cnb
可以直接使用已经搭建好的comfyui 仓库,避免配置环境的时间,我是用的模板项目如下:comfyui_base

进入项目界面后需要fork项目到自己的账户,第一次登录时没有组织,需要创建一个组织(内容随便写),仓库名可以稍微做些修改,比如后面加个123.--------fork整个仓库。

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

(2)启动项目
到自己的仓库启动项目,点击comfyui起飞。

在这里插入图片描述

在终端输入 y 可以启动项目

在这里插入图片描述

启动项目后点击弹出的链接会显示下面的界面:

在这里插入图片描述

下载模型:
模型地址:模型地址

在这里插入图片描述


复制模型的下载链接:

在这里插入图片描述

执行下载命令:
需要将模型放到 /workspace/ComfyUI/models/checkpoints 路径下:
执行命令代码如下:

aria2c https://cnb.cool/ai-models/stable-diffusion-v1-5/stable-diffusion-v1-5/-/lfs/6ce0161689b3853acaa03779ec93eafe75a02f4ced659bee03f50797806fa2fa?name=v1-5-pruned-emaonly.safetensors 
在这里插入图片描述

重新启动应用,选择下载的模型,点击运行就可以出图了。

在这里插入图片描述


还可以安装一个节点,点击Manager,下载crystools节点,安装完之后点击restart,重启成功后在进入comfyui

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述


(3)同步到自己仓库
回到后台,将增加的内容同步到自己的仓库,无需构建镜像,使用命令如下:

cd /workspace find /workspace/ComfyUI/custom_nodes -mindepth 2-type d -name ".git"-exec rm -rf {}+ git add . git commit -m "同步更新" git push 
在这里插入图片描述


使用 kill 1 可以关闭项目页面

在这里插入图片描述

Read more

LLaMA Factory操作界面微调时报disable multiprocessing.

LLaMA Factory操作界面微调时报disable multiprocessing.

LLaMA Factory操作界面微调时报disable multiprocessing 陈述问题 由于显卡性能不强,微调模型时会报以下下错误,GPU内存或系统内存不足,尤其在处理大规模数据或大模型时,子进程因内存溢出崩溃。 ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "G:\project\LLaMA-Factory\src\llamafactory\data\converter.py", line 420, in align_dataset return dataset.map( ^^^^^^^^^^^^ File "C:\Python312\Lib\site-packages\datasets\arrow_dataset.py", line 557, in wrapper out: Union["Dataset", "DatasetDict&

本地大模型:如何在内网部署 Llama/Qwen 等安全增强模型

本地大模型:如何在内网部署 Llama/Qwen 等安全增强模型 你好,我是陈涉川,欢迎你来到我的专栏。在上一篇《架构设计:安全 AI 产品的全生命周期(MLSecOps)》中,我们走出了“霍格沃茨的实验室”,直面血肉横飞的真实工程战场,拆解了从需求定义到模型退役的全生命周期(MLSecOps)七阶蓝图。我们明白了,安全 AI 的落地绝不是丢一个 Python 脚本进 Docker 那么简单,而是一场融合了算法、运维与合规的系统级工程。 既然掌握了宏观架构,本篇我们将直接拔剑出鞘,扎进生成式 AI 落地最硬核、最逼仄的深水区——物理隔离的内网环境。如何在严守数据安全与合规红线的前提下,在算力捉襟见肘的企业内网中,将百亿参数的 Llama 或 Qwen 部署上线,并将其微调成一个拥有坚定防守立场、断网也能满血运行的“企业专属安全大脑”! 引言:跨越红线,

AIGC - Raphael AI:全球首个无限制免费 AI 图片生成器

AIGC - Raphael AI:全球首个无限制免费 AI 图片生成器

文章目录 * 引言 * 一、Raphael AI 是什么? * 二、核心引擎:Flux.1-Dev 与 Flux Kontext * 1. Flux.1-Dev:极速与精细的结合 * 2. Flux Kontext:精确的语义理解 * 三、主要功能一览 * 1. 零成本创作 * 2. 多风格引擎 * 3. 高级文本理解 * 4. 极速生成 * 5. 隐私保护 * 四、实测体验与使用方式 * 五、与其他 AI 绘图平台的对比 * 六、未来发展与生态计划 * 七、总结:AI 创意的平权时代 引言 在生成式 AI 技术飞速发展的时代,图像生成的门槛正在被彻底打破。

Cogito-v1-preview-llama-3B部署案例:高校AI教学实验室低成本大模型实训平台搭建

Cogito-v1-preview-llama-3B部署案例:高校AI教学实验室低成本大模型实训平台搭建 1. 项目背景与价值 高校AI教学实验室面临着既要让学生接触前沿技术,又要控制成本的现实挑战。传统的大模型实训平台往往需要昂贵的硬件投入和复杂的部署流程,让很多学校望而却步。 Cogito v1 preview llama-3B模型的出现,为这个问题提供了一个优雅的解决方案。这个3B参数的模型在保持出色性能的同时,大大降低了硬件门槛,让普通的教学服务器也能流畅运行。 更重要的是,这个模型支持两种推理模式:标准直接回答和带自我反思的推理模式。这意味着学生不仅可以学习大模型的基本使用,还能深入理解模型思考过程,这对AI教学来说价值巨大。 2. Cogito模型核心优势 2.1 技术特点解析 Cogito v1 preview llama-3B是一个经过指令调优的生成模型,具有几个显著特点: 混合推理能力是最大亮点。模型可以选择直接回答问题,也可以先进行自我反思再给出答案。这种设计让学生能够观察模型的思考链条,对理解AI推理过程非常有帮助。 多语言支持强大,训练数据