AI大模型教程
一起来学习

Stable Diffusion新手入门手册

硬件要求
建议使用不少于 16 GB 内存,并有 60GB 以上的硬盘空间。 需要用到 CUDA 架构,推荐使用 N 卡。
(目前已经有了对 A 卡的相关支持,但运算的速度依旧明显慢于 N 卡,参见:
Install and Run on AMD GPUs · AUTOMATIC1111/stable-diffusion-webui Wiki · GitHub
过度使用,显卡会有损坏的风险。
进行 512x 图片生成时主流显卡速度对比:

环境部署手动部署
可以参考 webui 的官方 wiki 部署:Home · AUTOMATIC1111/stable-diffusion-webui Wiki (github.com)
stable diffusion webui 的完整环境占用空间极大,能达到几十 G。同时,webui 需要联网下载安装大量的依赖,在境内的网络环境下下载很慢,请自带科学上网工具。

  1. 安装 Python 安装 Python 3.10,安装时须选中

  2. 安装 Git 在 Git-scm.com 下载 Git 安装包并安装。

  3. 下载 webui 的 github 仓库 按下win+r 输入 cmd,调出命令行窗口。运行: cd PATH_TO_CLONE
    git clone https://http://github.com/AUTOMATIC1111/stable-diffusion-webui.git
    请把代码中的
    PATH_TO_CLONE
    替换为自己想下载的目录。

  4. 装配模型 可在如Civitai上下载标注有CKPT的模型,有模型才能作画。下载的模型放入下载后文件路径下的models/Stable-diffusion 目录。

  5. 使用 双击运行出一个类似 型使用。

。 脚本会自动下载依赖,等待一段时间(可能很长),程序会输的地址,在浏览器中输入这个链接开即可。详细可参见模

  1. 更新 按下win+r 输入 cmd,调出命令行窗口。运行: cd PATH_TO_CLONE
    git pull
    请把代码中的:
    PATH_TO_CLONE
    替换为自己下载仓库的目录。
    整合包
    觉得麻烦的同学可以使用整合包,解压即用。 比如独立研究员的空间下经常更新整合包。 秋叶的启动器也非常好用,将启动器复制到下载仓库的目录下即可,更新管理会更方便。

打开启动器后,可一键启动:

如果有其他需求,可以在高级选项中调整配置。

显存优化根据显卡实际显存选择,不要超过当前显卡显存。不过并不是指定了显存优化量就一定不会超 显存,在出图时如果启动了过多的优化项(如高清修复、人脸修复、过大模型)时,依然有超出显存导 致出图失败的几率。

xFormers 能极大地改善了内存消耗和速度,建议开启。准备工作完毕后,点击一键启动即可。等待浏览器自动跳出,或是控制台弹出本地 URL 后说明启动成功
如果报错提示缺少 Pytorch,则需要在启动器中点击配置:

Stable Diffusion webui 的更新比较频繁,请根据需求在“版本管理”目录下更新:

在这里插入图片描述

同样地,也请注意插件的更新:
关于插件
Stable Diffusion 可配置大量插件扩展,在 webui 的“扩展”选项卡下,可以安装插件:

点击“加载自”后,目录会刷新,选择需要的插件点击右侧的 install 即可安装。

安装完毕后,需要重新启动用户界面:

文生图最简流程

  1. 选择需要使用的模型(底模),这是对生成结果影响最大的因素,主要体现在画面风格上。

  2. 在第一个框中填入提示词(Prompt),对想要生成的东西进行文字描述

  3. 在第二个框中填入负面提示词(Negative prompt),你不想要生成的东西进行文字描述

  4. 选择采样方法、采样次数、图片尺寸等参数。

  • Sampler(采样器/采样方法) 选择使用哪种采样器。 Euler a(Eular
    ancestral)可以以较少的步数产生很大的多样性,不同的步数可能有不同的结果。而非 ancestral
    采样器都会产生基本相同的图像。DPM 相关的采样器通常具有不错的效果,但耗时也会相应增加。

  • Euler 是最简单、最快的。

  • Euler a 更多样,不同步数可以生产出不同的图片。但是太高步数 (>30) 效果不会更好。 DDIM
    收敛快,但效率相对较低,因为需要很多 step 才能获得好的结果,适合在重绘时候使用。

  • LMS 是 Euler 的衍生,它们使用一种相关但稍有不同的方法(平均过去的几个步骤以提高准确性)。大概 30 step
    可以得到稳定结果 。

  • PLMS 是 Euler 的衍生,可以更好地处理神经网络结构中的奇异性。

  • DPM2 是一种神奇的方法,它旨在改进 DDIM,减少步骤以获得良好的结果。它需要每一步运行两次去噪,它的速度大约是
    DDIM 的两倍,生图效果也非常好。但是如果你在进行调试提示词的实验,这个采样器可能会有点慢了。

  • UniPC 效果较好且速度非常快,对平面、卡通的表现较好,推荐使用。

  • ampling Steps(采样步数) Stable Diffusion
    的工作方式是从以随机高斯噪声起步,向符合提示的图像一步步降噪接近。随着步数增多,可以得到对目标更小、更精确的图像。但增加步数也会
    增加生成图像所需的时间。增加步数的边际收益递减,取决于采样器。一般开到 20~30。

  • 不同采样步数与采样器之间的关系:

  • CFG Scale(提示词相关性) 图像与你的提示的匹配程度。增加这个值将导致图像更接近你的提 示,但它也在一定程度上降低了图像质量。
    可以用更多的采样步骤来抵消。过高的 CFG Scale 体现为粗犷的线条和过锐化的图像。一般开到 7~11。 CFG Scale
    与采样器之间的关系:
    在这里插入图片描述

  • 生成批次 每次生成图像的组数。一次运行生成图像的数量为“批次* 批次数量”。

  • 每批数量 同时生成多少个图像。增加这个值可以提高性能,但也需要更多的显存。大的 Batch Size需要消耗巨量显存。若没有超过 12G
    的显存,请保持为 1。

  • 尺寸 指定图像的长宽。出图尺寸太宽时,图中可能会出现多个主体。1024
    之上的尺寸可能会出现不理想的结果,推荐使用小尺寸分辨率+高清修复(Hires fix)。

文章来源于互联网:Stable Diffusion新手入门手册

相关推荐: AIGC 如何助力数千账号内容每日更、不重复、保过审?

 视频内容请戳: 0成本投放,日更万条视频就能带流量 | 特赞AI内容工厂 借助 AIGC ,让企业的数千个矩阵账号每天发出不重样的,可过审的,不影响消费者体验的良质内容,从而增加流量,扩大曝光,赋能生意的增长。 这可能是目前 AIGC 与企业营销结合的最落地…

赞(0)
未经允许不得转载:5bei.cn大模型教程网 » Stable Diffusion新手入门手册
分享到: 更多 (0)

AI大模型,我们的未来

小欢软考联系我们