Stable-Diffusion-v1-5-archive入门必看:5步完成文生图生成,支持负向提示词

Stable-Diffusion-v1-5-archive入门必看:5步完成文生图生成,支持负向提示词

想试试AI画画,但被复杂的安装和配置劝退?今天,我们就来聊聊一个让你能“开箱即画”的经典工具——Stable Diffusion v1.5 Archive。它就像一个封装好的“绘画工具箱”,你不需要懂代码,打开网页就能用。这篇文章,我就带你从零开始,只用5个步骤,亲手生成你的第一张AI画作,并且掌握“负向提示词”这个让画面更精准的秘密武器。

1. 认识你的AI画板:Stable Diffusion v1.5 Archive

在开始动手之前,我们先花一分钟了解一下你即将使用的工具。Stable Diffusion v1.5 Archive,你可以把它看作是AI绘画领域的一个“经典复刻版”。

它基于非常成熟的Stable Diffusion 1.5模型,这个版本在社区里经过了海量图片和提示词的训练,虽然不像最新模型那样在某些特定风格上极致惊艳,但它胜在稳定、通用、可控性强。对于新手来说,这意味着更少的“翻车”概率和更可预测的生成结果。

这个“Archive”版本最大的好处就是开箱即用。开发者已经帮你把所有复杂的模型部署、环境配置、界面搭建都搞定了,打包成了一个完整的Web应用。你只需要一个能上网的浏览器,就能直接开始创作。

它的核心能力很简单,但很实用:

  • 文生图:输入文字描述,就能得到对应的图片。
  • 支持负向提示词:告诉AI“不要画什么”,这是控制画面、避免奇怪元素的关键。
  • 固定种子:如果你生成了一张特别喜欢的图,可以通过固定“种子”这个参数,完美地复现它。

简单来说,它就是你踏入AI绘画世界最友好、最没有门槛的那块敲门砖。

2. 准备工作:找到你的画室入口

使用这个工具,你不需要在电脑上安装任何软件。它运行在云端,通过一个网页链接就能访问。这就像你去一个在线的画室,推开门就能开始画画。

通常,服务提供商会给你一个专属的访问地址,格式类似这样:

https://gpu-你的实例ID-7860.web.gpu.ZEEKLOG.net/ 

你只需要将这个地址中的 你的实例ID 替换成实际分配给你的ID,然后在浏览器中打开即可。

当你第一次打开这个链接,可能会看到一个简洁的Web界面。界面主要分为左右两部分:

  • 左侧是控制面板:这里是你输入想法、调整参数的地方,包括提示词输入框、各种滑块和按钮。
  • 右侧是画布和结果区:这里会实时显示你生成的图片,以及生成这张图片所用的所有参数。

看到这个界面,你的“画室”就已经准备就绪了。接下来,我们就要开始最重要的部分——学会如何跟AI“沟通”,让它画出你心中的画面。

3. 核心操作:5步生成你的第一张AI画作

现在,让我们进入正题。生成一张AI图片,其实就像给一位想象力丰富但有点“直脑筋”的画师下指令。遵循下面这5个步骤,你就能轻松上手。

3.1 第一步:用英文写下你的核心创意(Prompt)

这是最关键的一步。你需要用文字清晰地告诉AI你想要什么。这里有一个非常重要的建议:请尽量使用英文提示词

虽然模型也能“听懂”一些中文,但它对英文语义的理解要准确和稳定得多。使用中文提示词,有时会出现意想不到的偏差,比如你想画“一只猫在沙发上”,它可能给你生成“一只像沙发的猫”。为了获得最佳效果,可以先用翻译工具把你的想法转换成英文。

怎么写好一个英文提示词呢?记住一个简单的结构公式:主体 + 场景 + 风格 + 细节

举个例子:

  • 基础版a cat (一只猫)
  • 进阶版a cute cat sleeping on a cozy sofa (一只可爱的猫在舒适的沙发上睡觉)
  • 专业版a cute cat sleeping on a cozy sofa, soft morning light, cinematic style, highly detailed, 8k resolution (一只可爱的猫在舒适的沙发上睡觉,柔和的晨光,电影风格,高细节,8K分辨率)

你可以看到,描述越具体、越丰富,AI生成的结果就越接近你的想象。一开始可以从简单的开始,慢慢增加细节。

3.2 第二步:告诉AI要避开什么(Negative Prompt)

这是新手最容易忽略,但效果立竿见影的技巧。负向提示词,就是用来告诉AI“千万不要在画面里出现这些东西”。

为什么需要它?因为AI在训练时见过各种各样的图片,有些常见的瑕疵或你不想要的元素,可能会无意中被“联想”出来。通过负向提示词,我们可以主动过滤掉它们。

一些常用的负向提示词包括:

  • lowres, bad anatomy, blurry (低分辨率,结构畸形,模糊)
  • extra fingers, extra limbs, deformed hands (多余的手指,多余的肢体,畸形的手) – 这对于生成人物时避免“六指琴魔”非常有效。
  • ugly, duplicate, morbid (丑陋,重复,病态的)

你可以在网上找到很多别人总结好的“负面词包”,刚开始可以直接使用一些通用的组合,比如 lowres, bad anatomy, blurry, extra fingers。它能显著提升画面的整体质量和正常度。

3.3 第三步:调整几个关键参数

在输入框下方,你会看到几个可以调节的滑块。别被它们吓到,我们只需要关注最重要的三个:

  1. Steps(采样步数):可以理解为AI“思考”的细致程度。步数太低(比如10),画面可能粗糙、未完;步数太高(比如50),生成速度会变慢,且收益递减。建议从20-30开始尝试,这个区间在质量和速度上比较平衡。
  2. Guidance Scale(引导尺度):这个参数控制AI对你写的提示词的“听话”程度。值太低(比如3),AI可能自由发挥,不按你的描述来;值太高(比如15),画面可能会显得生硬、过度饱和甚至扭曲。建议设置在7.0左右,这是一个比较安全的甜点区。
  3. Width / Height(宽/高):输出图片的尺寸。模型在训练时最常见的是512x512或768x768的图片,所以建议将尺寸设置为64的倍数,如512、576、640、768等,这样生成效果最稳定。如果你想生成手机壁纸(如9:16),可以先以768x768生成,再用其他工具裁剪。

3.4 第四步:点击生成,静待奇迹

调整好上述所有设置后,点击那个最大的按钮——「生成图片」或「Generate」

这时,你需要耐心等待几秒到几十秒(取决于你的云端算力)。你会看到右侧的结果区域从空白,逐渐显示出图片的轮廓,最后变得清晰。这个过程本身也很有趣,就像看着一幅画在眼前慢慢浮现。

3.5 第五步:查看结果并学会复现

图片生成后,你会在右侧看到两个东西:

  1. 生成的图片:欣赏你的作品吧!如果满意,可以下载保存。
  2. 推理参数(通常是JSON格式):这里记录了生成这张图片所用到的所有设置,包括你写的提示词、负向提示词,以及Steps、Guidance Scale、Seed等所有参数值。

重点来了:如何复现同一张图? 如果你生成了一张特别满意的图,想再生成一张一模一样的,或者微调一下,就需要用到这个参数里的 Seed(随机种子)

  • 如果Seed-1,代表每次都是随机生成,几乎不可能得到完全相同的第二张图。
  • 如果你想复现,就在生成满意图片后,将参数中的Seed值(一个数字,如123456)复制下来,填回到左侧的Seed输入框中,并确保其他所有参数(提示词、尺寸、步数等)完全一致,再次点击生成,就能得到几乎完全相同的图片。

至此,你已经完成了从创意到成品的完整流程!多试几次,你会越来越有感觉。

4. 从新手到熟练:实用技巧与避坑指南

掌握了基本操作后,我们再来聊聊如何提升出图质量,以及遇到问题时该怎么办。

4.1 提升画面质量的实用技巧

  • 描述具体化:避免使用“好看的”、“美丽的”这种抽象词。用具体的名词、形容词和场景。例如,不说“一个美丽的风景”,而说“雪山脚下的湛蓝湖泊,倒映着夕阳,摄影风格”。
  • 使用风格词汇:在提示词中加入艺术风格或摄影师名字,能极大改变画面质感。例如:cinematic(电影感), oil painting(油画), studio ghibli style(吉卜力风格), Ansel Adams photography(安塞尔·亚当斯摄影风格)。
  • 控制构图:你可以尝试在提示词中加入构图指令,如 wide shot(广角镜头), close-up(特写), from above(俯视), symmetrical composition(对称构图)。
  • 迭代优化:很少有一次就生成完美图片的。通常的做法是:先生成一张,看看哪里不满意,然后微调提示词。比如觉得背景太乱,就在负向提示词里加busy background;觉得人物表情不对,就在正向提示词里强调smiling

4.2 常见问题与解决方法

在实际使用中,你可能会遇到一些小麻烦,别担心,大部分都有解决办法:

  • 问题:生成的图片模糊或有奇怪的瑕疵。
    • 检查:Steps是否太低(建议20+)?提示词是否太简单或歧义?
    • 解决:提高Steps到25-30,优化并细化你的英文提示词描述。
  • 问题:人物手部或脸部畸形(多手指、扭曲的脸)。
    • 解决:这是文生图模型的常见难题。首先,确保在负向提示词中加入了 deformed hands, bad anatomy, extra fingers。其次,可以尝试在正向提示词中加入 perfect hands, symmetrical face, detailed eyes 来引导。如果还不行,可能需要借助专门的修复工具或模型进行后期处理。
  • 问题:页面打不开,或者生成时出错。
    • 解决:这通常是服务本身的问题。你可以联系服务提供商,或者如果自己有管理权限,可以尝试按照文档中的命令重启服务。例如,在服务器上执行 supervisorctl restart sd15-archive-web 命令。
  • 问题:我想画一个复杂场景,但AI总是漏掉一些元素。
    • 解决:AI不擅长同时处理太多主体。尝试“分而治之”:先描述核心主体和背景,生成一张;如果效果不错,再通过“图生图”功能,添加其他元素。或者,用更强烈的词汇强调关键元素,并用括号增加权重,例如:(a giant red dragon:1.5) flying over a medieval castle,其中:1.5表示对这个词的关注度提高50%。

5. 总结

好了,让我们回顾一下今天的核心内容。使用Stable Diffusion v1.5 Archive生成AI图片,本质上是一个与AI协作、不断明确需求的过程。

核心五步法是你需要牢记的流程:写英文提示词 → 加负向提示词避坑 → 调参(步数、引导尺度、尺寸)→ 点击生成 → 保存参数以便复现。这个过程就像学习一门新的视觉语言,你描述得越精准,AI“画”得就越到位。

对于新手,我的建议是:

  1. 从模仿开始:在网上找一些别人分享的优秀提示词,直接使用,看看能生成什么,然后试着修改其中的几个词,观察变化。
  2. 大胆尝试:不要怕“翻车”,每一次不太理想的生成,都是你理解AI“脑回路”的好机会。
  3. 善用“种子”:遇到喜欢的图,一定记下种子值,这是你进行微调和风格探索的起点。

Stable Diffusion v1.5 Archive作为一个经典且稳定的工具,是你探索AI绘画世界的绝佳起点。它可能没有最新模型那些炫酷的特定功能,但它提供的稳定性和可控性,能让你扎实地掌握与AI沟通的基本功。记住,最重要的不是工具本身,而是你通过工具所释放的想象力。现在,就去打开那个链接,输入你的第一个提示词,开始创作吧!


获取更多AI镜像

想探索更多AI镜像和应用场景?访问 ZEEKLOG星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。

Read more

Ubuntu搭建PX4无人机仿真环境(5) —— 仿真环境搭建(以Ubuntu 22.04,ROS2 Humble,Micro XRCE-DDS Agent为例)

Ubuntu搭建PX4无人机仿真环境(5) —— 仿真环境搭建(以Ubuntu 22.04,ROS2 Humble,Micro XRCE-DDS Agent为例)

目录 * 前言 * 1. 准备 * 1.1 下载 PX4 源码 * 方式一: * 方式二: * 1.2 安装仿真依赖 * 1.3 安装 Gazebo * 2. 安装 Micro XRCE-DDS Agent * 3. 编译 PX4 * 4. 通信测试 * 5. 官方 offboard 程序 * 6. offboard 测试 * 参考 前言 本教程基于 ROS2 ,在搭建之前,需要把 ROS2、QGC 等基础环境安装配置完成。但是这块的资料相比较于 ROS1 下的少很多,不利于快速上手和后期开发,小白慎选! 小白必看:

Qwen3-0.6B实战:打造会思考的AI对话机器人

Qwen3-0.6B实战:打造会思考的AI对话机器人 你是否试过让一个AI在回答前“想一想”?不是简单地拼凑词句,而是像人一样拆解问题、验证逻辑、逐步推导,最后给出清晰结论——这种能力过去只属于百亿参数大模型,但现在,一个仅6亿参数的轻量级模型就能做到。Qwen3-0.6B不是“缩水版”的千问,而是一次精准的工程重构:它把“思考链”(Chain-of-Thought)原生嵌入模型架构,不靠外部提示工程,不依赖复杂插件,只需一行配置,就能唤醒它的推理意识。 本文不讲参数、不谈训练,只聚焦一件事:如何用最简路径,在本地或云端快速启动一个真正会思考的对话机器人。从Jupyter一键运行,到LangChain调用,再到多轮思考模式切换,所有步骤都经过实测验证,代码可直接复制粘贴,无需修改即可运行。 1. 快速启动:三步跑通第一个思考型对话 1.1 启动镜像并进入Jupyter环境 ZEEKLOG星图镜像广场已预置Qwen3-0.6B镜像,开箱即用。启动后,系统自动打开Jupyter Lab界面,地址形如

【数据集+完整源码】【YOLO】无人机数据集,目标检测无人机检测数据集 7261 张,YOLO无人机识别系统实战训练教程,yolo无人机检测。

【数据集+完整源码】【YOLO】无人机数据集,目标检测无人机检测数据集 7261 张,YOLO无人机识别系统实战训练教程,yolo无人机检测。

文章前瞻:优质数据集与检测系统精选 点击链接:更多数据集与系统目录清单 数据集与检测系统数据集与检测系统基于深度学习的道路积水检测系统基于深度学习的道路垃圾检测系统基于深度学习的道路裂缝检测系统基于深度学习的道路交通事故检测系统基于深度学习的道路病害检测系统基于深度学习的道路积雪结冰检测系统基于深度学习的汽车车牌检测系统基于深度学习的井盖丢失破损检测系统基于深度学习的行人车辆检测系统基于深度学习的航拍行人检测系统基于深度学习的车辆分类检测系统基于深度学习的电动车头盔佩戴检测系统基于深度学习的交通信号灯检测系统基于深度学习的共享单车违停检测系统基于深度学习的摆摊占道经营检测系统基于深度学习的人员游泳溺水检测系统基于深度学习的航拍水面垃圾检测系统基于深度学习的水面垃圾检测系统基于深度学习的水面船舶分类检测系统基于深度学习的海洋垃圾检测系统基于深度学习的救生衣穿戴检测系统基于深度学习的海洋生物检测系统基于深度学习的人员吸烟检测系统基于深度学习的口罩佩戴检测系统基于深度学习的烟雾和火灾检测系统基于深度学习的人员睡岗玩手机检测系统基于深度学习的人员摔倒检测系统基于深度学习的人员姿势检测系

ClawdBot文旅场景:景区导览语音翻译+多语种AR文物解说+实时字幕

ClawdBot文旅场景:景区导览语音翻译+多语种AR文物解说+实时字幕 你有没有在故宫看到一块明代石碑,却读不懂上面的繁体铭文?有没有在敦煌莫高窟面对飞天壁画,想听一段地道英语讲解却只能靠手机查词?又或者,在西湖断桥边,外国游客指着雷峰塔问“Why is it so famous?”,而你一时卡壳,说不出白蛇传的来龙去脉? ClawdBot 不是另一个“能聊天”的AI玩具。它是一套为真实文旅现场量身打造的轻量级智能助手系统——不依赖云端API、不上传用户语音和图像、不强制联网,所有能力都跑在你手边的一台边缘设备上:一台带GPU的工控机、一台改装过的景区导览平板,甚至是一台性能尚可的树莓派5。 它把三件过去需要三个App、三套账号、三种网络权限才能完成的事,压进一个本地运行的终端里: 听见游客说的每一句话,秒级翻译成中/英/日/韩/法/西等12种语言,并同步生成双语字幕投射到AR眼镜或导览屏上; 对准一件青铜器拍照,OCR识别铭文后,调用本地大模型生成符合文物背景的多语种语音解说; 在团队讲解模式下,导游手持设备说话,系统实时转写+翻译+字幕上屏,