开启AI绘画 “工作流时代” 的神奇应用----Comfy UI | 使用CNB平台搭建ComfyUI

开启AI绘画 “工作流时代” 的神奇应用----Comfy UI | 使用CNB平台搭建ComfyUI

文章目录

概要

ComfyUI 是一款基于节点流程的可视化 AI 生成工具,核心围绕 Stable Diffusion 等主流生成式 AI 算法构建,通过图形化节点拆解生成全流程,实现从文本 / 图像输入到图像 / 视频输出的 “精准可控创作”。

腾讯云 CNB(Cloud Native Build,官网:cnb.cool)是基于 Docker 生态的云原生开发协作平台,核心定位是通过容器化技术与资源池化能力,为开发者提供 “一键就绪” 的远程开发环境,尤其聚焦开源项目协作与 AI 工具落地,无需本地配置复杂硬件与环境即可开展开发、测试与创作。链接:cnb

操作流程

接下来展示使用腾讯云cnb搭建comfyui的流程:

(1)到CNB网站 fork 项目
链接:cnb
可以直接使用已经搭建好的comfyui 仓库,避免配置环境的时间,我是用的模板项目如下:comfyui_base

进入项目界面后需要fork项目到自己的账户,第一次登录时没有组织,需要创建一个组织(内容随便写),仓库名可以稍微做些修改,比如后面加个123.--------fork整个仓库。

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

(2)启动项目
到自己的仓库启动项目,点击comfyui起飞。

在这里插入图片描述

在终端输入 y 可以启动项目

在这里插入图片描述

启动项目后点击弹出的链接会显示下面的界面:

在这里插入图片描述

下载模型:
模型地址:模型地址

在这里插入图片描述


复制模型的下载链接:

在这里插入图片描述

执行下载命令:
需要将模型放到 /workspace/ComfyUI/models/checkpoints 路径下:
执行命令代码如下:

aria2c https://cnb.cool/ai-models/stable-diffusion-v1-5/stable-diffusion-v1-5/-/lfs/6ce0161689b3853acaa03779ec93eafe75a02f4ced659bee03f50797806fa2fa?name=v1-5-pruned-emaonly.safetensors 
在这里插入图片描述

重新启动应用,选择下载的模型,点击运行就可以出图了。

在这里插入图片描述


还可以安装一个节点,点击Manager,下载crystools节点,安装完之后点击restart,重启成功后在进入comfyui

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述


(3)同步到自己仓库
回到后台,将增加的内容同步到自己的仓库,无需构建镜像,使用命令如下:

cd /workspace find /workspace/ComfyUI/custom_nodes -mindepth 2-type d -name ".git"-exec rm -rf {}+ git add . git commit -m "同步更新" git push 
在这里插入图片描述


使用 kill 1 可以关闭项目页面

在这里插入图片描述

Read more

人工智能进化全景:从专用工具到超级智能的跃迁(ANI、AIGC、AGI和ASI)

人工智能进化全景:从专用工具到超级智能的跃迁(ANI、AIGC、AGI和ASI)

1. 人工智能的谱系:从ANI到ASI的进化阶梯 在人工智能领域,ANI、AIGC、AGI和ASI代表了智能发展的不同阶段和形态。这些概念构成了理解人工智能发展路径的关键框架。 1.1 ANI:专业化智能的时代 人工狭义智能(Artificial Narrow Intelligence,ANI) 是我们今天生活中无处不在的人工智能形式。这类系统被设计用于在特定、有限范围内执行任务,其特点是高专业性和低泛化能力。 ANI系统已经深入到我们生活的方方面面: * 自然语言处理:如智能客服、语音助手(Siri、Alexa) * 计算机视觉:人脸识别、医学影像分析 * 推荐系统:Netflix的影片推荐、Amazon的购物推荐 * 预测分析:金融风险评估、天气预报模型 一个典型的ANI系统架构通常包括数据收集模块、特定算法模型和结果输出模块。以AlphaGo为例,它能够在围棋领域超越人类顶尖选手,却无法将这种能力转移到简单的图像识别任务中。 1.2 AIGC:创造力的觉醒 人工智能生成内容(Artificial Intelligence Generated Content

【深度解析 LayerNorm 与 RMSNorm】为什么 LLaMA 等大模型全面转向 RMSNorm?

【深度解析 LayerNorm 与 RMSNorm】为什么 LLaMA 等大模型全面转向 RMSNorm?

文章目录 * 前言 * 一、归一化技术概述 * 1.1 基本理论框架 * 1.2 梯度与参数更新的稳定性 * 1.3 间接降低内存占用 * 1.4 总结:归一化稳定优化的逻辑链 * 二、LayerNorm * 2.1 核心原理 * 2.2 代码逐行解析 * 2.3 与 BatchNorm 的区别 * (1) 适配「变长序列+批次无关」的建模需求 * (2) 适配「自注意力的全局依赖特性」 * (3) 适配「梯度高效传递+训练/推理一致」的需求 * (4) 总结 * 2.4 Transformer 中

llamafactory微调qwen3-vl详细流程

llamafactory微调qwen3-vl详细流程

llamafactory微调qwen3-vl详细流程 目标:本文讲详细介绍多模态大模型使用llama-factory进行多模态模型微调(sft)的全部流程,以及微调后合并和工业落地部署方案。具体包括: 1. 环境安装部署 2. 数据集准备 3. 启动微调 4. 模型合并 5. 模型部署和请求方式(vllm部署) 示例模型: qwen2.5-vl-instruct qwen3-vl-instruct 环境安装 llama-factory环境准备 方式1 git直接下载 git clone --depth https://github.com/hiyouga/LLaMA-Factory.git 方式2 下载项目压缩包再解压 python环境安装 1. python虚拟环境创建 * conda create --name llama_env python=3.12 (默认已安装好anaconda或者minianaconda) * conda

Cogito-v1-preview-llama-3B惊艳表现:128k长文本中精准定位跨段落逻辑矛盾

Cogito-v1-preview-llama-3B惊艳表现:128k长文本中精准定位跨段落逻辑矛盾 你有没有遇到过这样的情况?读完一篇很长的报告或文章,总觉得哪里不对劲,前后说法好像有点矛盾,但又说不清楚具体是哪两句话冲突了。或者,在审核一份复杂的合同时,需要逐字逐句地比对不同条款之间是否存在隐藏的逻辑漏洞。 过去,这种工作只能靠人工完成,不仅耗时耗力,还容易因为疲劳而遗漏关键问题。但现在,有一个专门为此而生的AI模型出现了——Cogito-v1-preview-llama-3B。 这个仅有30亿参数的小模型,却拥有一个令人惊叹的“超能力”:它能在长达128k字符的文本中,像侦探一样精准地找出跨越多个段落的逻辑矛盾。今天,我就带你深入了解这个模型的强大之处,看看它是如何工作的,以及你能用它来做什么。 1. 认识Cogito:不只是聊天,更擅长“思考” 你可能用过很多AI聊天模型,它们能回答问题、写文章、写代码,表现都很不错。但Cogito系列模型有些不一样——它们被设计成“会思考的AI”。 1.1 什么是混合推理模型? 简单来说,Cogito模型有两种工作模式: 标