在运用Stable Diffusion进行图像生成时,参数配置与采样器选择直接影响最终输出效果。本文将系统解析CFG Scale、Steps、Seed等关键参数的作用机制,并对比不同采样器的适用场景。
PS:后续所有演示图片及提示词及参数如下(参数来自阿里云DSW),需要注意的是公众号上传图片有大小限制,所以演示图均为压缩后的结果,如果看着不是很清晰可以自行在本地尝试查看。

((masterpiece,best quality)),1girl, solo, animal ears, rabbit, barefoot, knees up, dress, sitting, rabbit ears, short sleeves, looking at viewer, grass, short hair, smile, white hair, puffy sleeves, outdoors, puffy short sleeves, bangs, on ground, full body, animal, white dress, sunlight, brown eyes, dappled sunlight, day, depth of field Negative prompt: EasyNegative, extra fingers,fewer fingers Steps: 20, Sampler: DPM++ 2M Karras, CFG scale: 10, Seed: 2337269170, Size: 512x832, Model hash: 71e703a0fc, Model: Counterfeit-V2.5_fp16, VAE hash: f921fb3f29, VAE: Counterfeit-V2.5.vae.pt, Denoising strength: 0.5, Clip skip: 2, Hires upscale: 1.8, Hires upscaler: Latent, TI hashes: "EasyNegative: c74b4e810b03", Version: v1.6.0提示词翻译:((杰作,最好的质量)),女孩,独奏,动物耳朵,兔子,赤脚,膝盖向上,衣服,坐着,兔子耳朵,短袖,看着观众,草,短发,微笑,白发,蓬松的袖子,户外,蓬松的短袖,刘海,在地上,全身,动物,白色衣服,阳光,棕色眼睛,斑纹的阳光,天,景深
🍹 CFG Scale
这个参数是用来控制生成内容与提示词的契合程度,讲人话就是控制AI的听话指数,数值过小的时候AI就会随意发挥,可能出现你描述的是一个美女,而AI最终给你生成出来的是一张长满触手的克苏鲁章鱼怪。而当你设置过大的数值时,AI工具会严格按你的要求来进行绘画,这样会扼杀AI的创意,可能产生机械感较强的图像。这个数值范围建议在7-10之间较为平衡。通俗理解来说就是
- 7以下:AI工具随便浪,越小越浪
- 黄金区间7-10:就像让AI戴着镣铐跳舞,既有规矩又有创意
- 10+:开始进入“军训”模式,越大教官管得越严
以下是其它参数与提示词完全不变的情况下,仅改变CFG Scale带来的变化,很容易可以看出来,值越低的情况下越抽象,而越高的参数就越接近提示词。

🔧 Steps
这个参数的作用是控制去噪过程的精细度,每一次迭代,是指依据文本输入生成随机噪声并由此构建图像的过程。随着步骤推进,每一阶段都在逐步减少图像中的噪声成分。步数过少的情况下可能会导致生成图片的质量不佳,且存在过多的噪点,而步数过多则会使图像生成过程变得漫长,当超出一定限度后,步数的提升未必能带来质量的提升或视觉清晰度改善,甚至在超过某个阈值后多余的步数可能会导致收益递减,甚至降低图像的整体质量。这里一般建议设置为25-35之间即可。通俗来说就是下面这样
- 前10步:铅笔打稿(确定构图和主体)
- 10-20步:炭笔描边(勾勒细节轮廓)
- 20-30步:水彩上色(渲染光影质感)
- 30步后:美图秀秀(精修但可能用力过猛)
以下是其它参数与提示词完全不变的情况下,不同的迭代步数产出的图片变化,可以看到,从第20步开始后面都是在提升画面细节与质感,而35-50步并没有多大的提升

🎲 Seed
种子值决定生成过程的初始状态。-1表示完全随机模式,固定种子值可复现相似构图。需特别注意:即使使用相同种子值,不同硬件设备或软件版本仍可能产生差异。一般来说我们生成图片的时候不可能一次就出现自己想要的结果,所以需要使用随机种子来抽取盲盒,而抽到了心动盲盒,我们记录这个盲盒的种子值,就可以对结果进行复现了。建议保留满意种子值,并通过微调提示词实现大致可控的创作迭代。
下面我们使用随机抽卡生成图片,这里我们一次抽8张看看效果,可以看到由于使用随机种子,生成出来的图片都各有差异。

这里比如说我们更喜欢倒数第二张,那么我们可以在图像输出区域选中该图片,底部会有该图片生成的所有信息,由于参数是一样的,所以我们复制里面的种子号即可复现这张图片了。

复制这个种子值2162729670到种子输入框中,再生成图片,可以看到,通过固定种子是可以复现构图的。

🍔 Batch双胞胎
在有一次生成多张图片的需求的时候,会用到Batch Count与Batch Size两个参数,Batch Count是指同一提示词和参数设置下执行生成操作的次数,每次都相当于独立的任务,不会影响显存的占用;而Batch Size是指单次生成任务中同时输出的图片数量,同时输出就意味着显存的占用会更大,这两个参数决定了最终输出图片的数量。
两个参数如何设置取决于显存的大小,如果显存较小的机器想一次生成多张图片,建议加大生成批次,每一次只生成一张图片,这样可以有效的防止爆显存。
而显存较大的机器可以平衡生成批次与批次数量加快出图速度。
需要注意的是,如果生成批次为1,批次数量为5,如果在生成过程中报错,则本次生成的结果会全部消失; 而如果生成批次为5,批次数量为1,报错时会保留前几个批次的生成结果,这个大家可以自己尝试一下。

🎨 采样器
个人比较常用的有Euler a和DPM++ 2M Karras,其中Euler a用于快速出图,随机性强,适合二次元风格,DPM++ 2M Karras效果比较精细,速度也较快,适合用于通用创作和写实人像。这里使用Euler a、DPM++2M Karras与DPM++2M SDE Karras采样器作个简单的对比供大家参考,如果微信没有压缩图片质量,那应该能很明显的看到DMP系列的采样器细节更多。

由于采样器众多,篇幅限制没办法一一讲解,需要根据具体的需求去选择,这里在文末给大家一个常用采样器介绍表格图片,包含各个采样器的优点、缺点以及使用场景供大家进行参考。
这里直接将该软件分享出来给大家吧~
1.stable diffusion安装包
随着技术的迭代,目前 Stable Diffusion 已经能够生成非常艺术化的图片了,完全有赶超人类的架势,已经有不少工作被这类服务替代,比如制作一个 logo 图片,画一张虚拟老婆照片,画质堪比相机。
最新 Stable Diffusion 除了有win多个版本,就算说底端的显卡也能玩了哦!此外还带来了Mac版本,仅支持macOS 12.3或更高版本。

2.stable diffusion视频合集
我们在学习的时候,往往书籍源码难以理解,阅读困难,这时候视频教程教程是就很适合了,生动形象加上案例实战,一步步带你入坑stable diffusion,科学有趣才能更方便的学习下去。

3.stable diffusion模型下载
stable diffusion往往一开始使用时图片等无法达到理想的生成效果,这时则需要通过使用大量训练数据,调整模型的超参数(如学习率、训练轮数、模型大小等),可以使得模型更好地适应数据集,并生成更加真实、准确、高质量的图像。

4.stable diffusion提示词
提示词是构建由文本到图像模型解释和理解的单词的过程。可以把它理解为你告诉 AI 模型要画什么而需要说的语言,整个SD学习过程中都离不开这本提示词手册。

5.SD从0到落地实战演练

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名SD大神的正确特征了。
这份完整版的stable diffusion资料我已经打包好,需要的点击下方插件,即可前往免费领取!

文章来源于互联网:Stable Diffusion文生图核心参数及采样器图文详解
懂得怎么样向ChatGPT提问,会更有效率地得到更符合用户需求的答案。 也就是要懂得怎么写prompt。 今天我们尝试用一个写故事小说的案例来实践一下~ 在正式开始之前,我们先来看看以下内容。 问:发挥你的想象,帮我写⼀篇帅⽓霸道总裁喜欢上农村出身的励志灰姑…
5bei.cn大模型教程网










