Neeshck-Z-lmage_LYX_v2从零开始:新手3步完成本地AI绘画工具搭建

Neeshck-Z-lmage_LYX_v2从零开始:新手3步完成本地AI绘画工具搭建

想自己动手搭建一个AI绘画工具,但又担心过程太复杂、电脑配置不够?今天,我就带你用Neeshck-Z-lmage_LYX_v2这个轻量级工具,三步搞定本地AI绘画的部署。整个过程就像搭积木一样简单,不需要联网,不需要高深的技术知识,更不需要昂贵的显卡。

这个工具是基于国产的Z-Image模型开发的,最大的特点就是“轻”和“快”。它把复杂的模型加载、参数调节都封装好了,你只需要在浏览器里点点鼠标、输入文字,就能看到AI生成的画作。无论是想画一个电影感十足的场景,还是生成一张精致的头像,它都能帮你快速实现。

下面,我们就开始这三步搭建之旅。

1. 环境准备:给你的电脑装上“画板”

在开始画画之前,我们得先把“画板”和“颜料”准备好。这一步主要是安装必要的软件环境,别担心,跟着做就行。

1.1 检查你的“画室”条件

首先,确保你的电脑满足以下基本要求。这就像检查画室的空间和光线是否充足:

  • 操作系统:Windows 10/11,或者 macOS、Linux 都可以。
  • Python版本:需要 Python 3.8 到 3.10 之间的版本。太新或太旧的版本可能会出问题。
  • 显卡(GPU):这是最重要的。最好有一块 NVIDIA 的独立显卡(显存4GB或以上,比如 GTX 1060、RTX 2060等)。如果没有独立显卡,用CPU也能跑,只是生成图片的速度会慢很多。
  • 硬盘空间:至少预留10GB的可用空间,用来存放模型文件。

1.2 安装“颜料”和“画笔”

接下来,我们通过几行命令来安装工具运行所需要的“颜料”(Python库)。

  1. 打开命令窗口
    • 在Windows上,按 Win + R,输入 cmd 然后回车。
    • 在macOS或Linux上,打开“终端”(Terminal)。

安装Python依赖库:这是最关键的一步,安装工具运行需要的所有Python软件包。输入以下命令:

pip install -r requirements.txt 

这个过程可能会花几分钟时间,请耐心等待它完成。如果遇到网络慢的问题,可以尝试使用国内的镜像源,比如在命令后面加上 -i https://pypi.tuna.tsinghua.edu.cn/simple

获取“画板”代码:继续在命令窗口里输入下面的命令。这会把工具的源代码从网上下载到你的电脑上,存放在一个叫 Z-Image-LYX 的文件夹里。

git clone https://github.com/neeshck/Z-Image-LYX.git cd Z-Image-LYX 

安装核心工具:将下面这行命令复制粘贴到命令窗口里,然后按回车。这会安装一个叫 git 的工具,用来获取我们的“画板”代码。

# Windows用户可以去 https://git-scm.com/ 下载安装包,安装时一路点“下一步”即可。 # macOS用户可以在终端里输入:brew install git # Linux用户(如Ubuntu)可以在终端里输入:sudo apt install git 

完成以上步骤,你的“画室”就初步布置好了。接下来,我们去拿最重要的“画布”——AI模型。

2. 获取与放置模型:准备好“画布”

AI绘画工具的核心是“模型”,你可以把它理解成AI画家的大脑,里面存储了它学习过的所有绘画知识和风格。我们需要下载这个“大脑”,并把它放到正确的位置。

2.1 下载Z-Image底座模型

这个工具是基于“Z-Image”这个国产模型开发的。你需要去模型分享网站(例如 Hugging Face)找到并下载这个模型文件。

  1. 访问模型仓库:在浏览器中打开Z-Image模型的官方页面。
  2. 下载模型文件:找到名为 model.safetensors 的文件(这是模型的本体),以及对应的 config.json 配置文件,将它们下载到你的电脑上。
  3. 放置模型文件:将你下载好的 model.safetensorsconfig.json 文件,复制或移动到刚刚创建的 Z-Image-LYX/models/Z-Image/ 这个文件夹里。

创建模型目录:回到命令窗口,确保你在 Z-Image-LYX 文件夹内,然后创建一个专门放模型的文件夹:

mkdir -p models/Z-Image 
重要提示:模型文件通常比较大(几个GB),下载需要一些时间。请确保下载完整,并且放对了文件夹路径,这是工具能启动的关键。

2.2 (可选)添加LoRA“风格滤镜”

LoRA 是什么?你可以把它想象成给AI画家戴上的不同“风格滤镜”或“技能卡”。比如,一个LoRA能让AI擅长画二次元动漫,另一个LoRA能让它精通中国风水墨画。工具支持动态加载这些“滤镜”。

  1. 获取LoRA文件:你可以在网上社区(如Civitai)找到很多别人训练好的LoRA文件,格式通常是 .safetensors。选择你感兴趣的风格下载,比如“电影光影”、“盲盒风格”等。
  2. 放置LoRA文件:在 Z-Image-LYX 文件夹下,有一个叫 loras 的文件夹。把你下载的所有 .safetensors 格式的LoRA文件,都放到这个 loras 文件夹里。
  3. 工具自动识别:你不需要做任何其他设置。启动工具后,它会自动扫描 loras 文件夹,并把所有找到的LoRA文件列出来供你选择。

至此,所有的“绘画材料”都已就位。最激动人心的启动时刻来了。

3. 启动与使用:开始你的AI绘画之旅

一切准备就绪,现在只需一个命令,就能唤醒你的专属AI画师。

3.1 启动绘画工具

在命令窗口中,确保你的当前目录是 Z-Image-LYX,然后输入以下命令:

streamlit run app.py 

按下回车后,你会看到命令行开始滚动一些信息,最后会出现这样一行:

 You can now view your Streamlit app in your browser. Local URL: http://localhost:8501 Network URL: http://192.168.x.x:8501 

这说明工具已经成功启动了!

3.2 在浏览器中打开画板

打开你的浏览器(Chrome、Edge等都可以),在地址栏里输入 http://localhost:8501,然后回车。

一个简洁的网页界面就会出现在你面前。这个界面主要分为三个区域:

  • 上方:输入画面描述(提示词)的地方。
  • 左侧:调节各种绘画参数的“控制面板”。
  • 中间/下方:展示生成图片的“画廊”。

3.3 画出你的第一幅AI作品

让我们来快速完成一次创作:

  1. 输入描述:在“输入画面描述”框里,用中文写下你想画的场景。比如:“一只戴着眼镜、在看书的小猫,温暖的阳光,室内书房,细节丰富,8K高清。”
  2. 调节参数(初次使用可先默认)
    • 推理步数:可以理解为AI“思考”的细致程度,20-30步是质量和速度的平衡点。
    • 提示词引导:控制AI是否严格听从你的描述,7左右通常效果不错。
    • LoRA版本:如果你在 loras 文件夹里放了文件,这里会显示出来,可以选择一个来应用特定风格。
    • LoRA强度:控制风格滤镜的强弱,0.6-0.8是比较安全的范围。
  3. 开始生成:点击“开始生成”按钮。界面会显示“AI 正在疯狂作画中...”,请稍等片刻(时间长短取决于你的显卡)。
  4. 欣赏作品:生成完成后,图片会显示在下方。工具还会贴心地标注出这次生成使用了哪个LoRA以及强度是多少。

你可以反复修改提示词、调整参数、切换LoRA风格,点击生成,无限探索AI绘画的乐趣。所有的操作都在本地完成,完全不用担心隐私问题。

4. 总结

回顾一下,我们只用了三步就搭建起一个功能完整的本地AI绘画工具:

  1. 准备环境:安装Python和必要的库。
  2. 放置模型:下载并放置好核心的Z-Image模型和可选的LoRA风格文件。
  3. 启动使用:一行命令启动,在浏览器中随心创作。

这个工具的优势在于它的 “轻量”“易用” 。它通过技术手段优化了显存占用,让更多普通配置的电脑也能运行;同时,它把所有复杂的参数都变成了网页上直观的滑块和选项,大大降低了使用门槛。

无论是作为AI绘画的入门体验,还是一个随时可用的本地创作工具,Neeshck-Z-lmage_LYX_v2都是一个非常不错的选择。现在,就打开它,输入你的奇思妙想,看看AI能为你创造出怎样的视觉惊喜吧。


获取更多AI镜像

想探索更多AI镜像和应用场景?访问 ZEEKLOG星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。

Read more

Git-RSCLIP镜像免配置优势:省去torch/hf-transformers环境冲突调试

Git-RSCLIP镜像免配置优势:省去torch/hf-transformers环境冲突调试 如果你尝试过在本地部署AI模型,大概率经历过“环境配置地狱”——各种Python版本冲突、CUDA版本不匹配、PyTorch和transformers库版本打架。光是解决这些依赖问题,可能就要花掉你半天甚至一天的时间。 今天要介绍的Git-RSCLIP镜像,最大的优势就是开箱即用,完全免配置。你不需要关心PyTorch版本、CUDA驱动、transformers库兼容性这些技术细节,所有环境都已经预配置好,模型也已经预加载完成。启动镜像,打开浏览器,直接就能用。 1. Git-RSCLIP是什么?为什么值得关注? Git-RSCLIP是北京航空航天大学团队基于SigLIP架构专门为遥感图像场景开发的图文检索模型。简单来说,它能让计算机“看懂”遥感图像,并理解图像和文字描述之间的关系。 1.1 核心能力:让AI理解遥感图像 传统的遥感图像分析需要专业的地理学知识,而Git-RSCLIP通过深度学习,让普通人也能快速分析遥感图像: * 图像分类:上传一张卫星图,告诉它“这是河流

1200PLC与爱普生机器人modbus_TCP通讯

1200PLC与爱普生机器人modbus_TCP通讯

1.前言 首先申明一下我的硬件信息 机器人:C4-A601S 控制器:RC700 PLC:西门子S7-1200(CPU:1217C/DC/DC/DC) 2.控制器IP地址查看及修改 在配置控制器相关信息时需要先用网线连接PC与机器人控制器连接,爱普生机器人出厂设定网址为192.168.0.1(我这里是之前修改过了) 若默认没有显示以太网连接,点击右侧的增加,选择“通过以太网连接到控制器”后点击确定 如果控制器网址被修改过了,不知道是多少,可以用一根PC线,一头接在控制器的“开发用PC连接专用USB端口”另一头接在电脑USB口 这时候再在通讯处选择USB连接就可以通上了 现在就可以在“系统配置”处看到控制器的IP地址以及相关信息了,如果有需要也可以直接在这修改IP地址。 3.机器人控制器配置 网线连接好后开始配置通讯相关信息 1.控制设备 控制设备修改为远程I/O 2.现场总线 现场总线类型修改为“Modbus TCP”

【Part 4 XR综合技术分享】第一节|技术上的抉择:三维实时渲染与VR全景视频的共生

【Part 4 XR综合技术分享】第一节|技术上的抉择:三维实时渲染与VR全景视频的共生

《VR 360°全景视频开发》专栏 将带你深入探索从全景视频制作到Unity眼镜端应用开发的全流程技术。专栏内容涵盖安卓原生VR播放器开发、Unity VR视频渲染与手势交互、360°全景视频制作与优化,以及高分辨率视频性能优化等实战技巧。 📝 希望通过这个专栏,帮助更多朋友进入VR 360°全景视频的世界! Part 4|XR综合技术分享 最后一Part了,我将分享一些关于当前常用的XR综合技术,内容涵盖三维实时渲染与全景视频的共生、多模态交互体验的融合,以及AI如何深度赋能XR应用,推动智能化发展。同时畅想通向全感知XR智能沉浸时代的未来,探索如何通过更先进的技术不断提升用户体验。毕竟,360°全景视频仅是XR应用中的冰山一角。 第一节|技术上的抉择:三维实时渲染与VR全景视频的共生 文章目录 * 《VR 360°全景视频开发》专栏 * Part 4|XR综合技术分享 * 第一节|技术上的抉择:三维实时渲染与VR全景视频的共生 * 1、VR内容形态的分化与融合 * 1.1 三维实时渲染的发展 * 1.2