AI大模型教程
一起来学习

AI绘画Stable diffusion保姆级教程,看这一篇就够了「安装-配置-画图」

随着chat[gpt]爆火之后,越来越多的人开始关注人工智能,人工智能相关的其他应用如AI绘画,也再次得到人们的关注。AI绘画的确很上头,最近几天小编也研究一下,这里把研究的过程以及中间遇到的问题整理一下,我这里遇到的问题,相信新入门的小白也会遇到,希望本文对你能有一定的帮助。

目前常用的[AI绘画]工具主要有两种:stable
diffusion
midjourney
两者都是根据使用者输入绘画描述,进行图片生成,背后都是采用机器学习算法工作,对于两者的具体技术实现细节,这里不错过多描述,毕竟这方面小编也不擅长,哈哈哈。

从绘图效果来看,两者差别不大,对于日常绘图需求,两者都可以完全满足,这里我主要站在使用者的角度来对比一下两者的差异:
midjourney:是一个国外的商业化产品,操作简单,使用方便,出图效果完全取决于提示词。

使用门槛:

1.需要科学上网

2.需要付费,费用还挺高

这里是 midjourney的官网:我给大家放在文末啦

stable diffusion 是一个免费的开源工具包,可以在本地安装,直接使用本地计算资源就可以进行绘画创作,同时stable
diffusion提供了很多可以扩展的插件,可以根据场景需要,进行自定义功能扩展。

使用门槛:

对电脑配置有一定的要求,当然配置低的电脑可以可以玩,只不过出图效率比较低而已。

小编的电脑配置:
Mac os 12.5 M1
内存:16GB
CPU和GPU都是苹果芯片

输出512*512的图片大概15s左右。

前期为了学习和研究,满足一下自己的好奇心,这些都不是最重要。最重要的是先搞出一张图,把整个流程跑通。

作为一个程序员,小编比较喜欢自己折腾一些东西,这里我使用 本地安装stable diffusion的方式。
stablediffusion安装

stable diffusion的安装直接参考官网提供的安装指南即可:已经给小伙伴放在文末了

这里有各种芯片组使用的安装方式,我的电脑是 apple芯片,安装方式使用的是:
Apple-Silicon

安装过程主要分为如下5步,如下图:

注意:这里使用了Home Brew完成对需要依赖的安装,Home
brew的安装需要科学上网,如果没有条件的话,也可以使用国内镜像安装,操作方式可以参考:我给大家整理在文末啦

按照上述步骤,经过10-20分钟后,可以完成安装。

安装完成后,在 stable-diffusion-webui 目录下执行./web-
ui.sh,第一次执行会比较慢,会下载一些基础模型和依赖,大概等待5-10分钟后,在控制台会看到如下图输出,说明启动成功。

此时在浏览器访问地址:http://localhost:7860 即可。

此时你会看到如下图所示的页面:

可能有的老铁看到的页面和上图有些差异:

1.你的主题是黑色的,我的怎么是白的?

2.你的是汉化的,我的怎么全是英文?

是的,我的页面是经过调整配置的,具体怎么配置,我后面会详细说明。

在上图中,一种有7个重点区域

1.模型选择区

模型对于画图至关重要,它直接决定了你要出图的风格,对于初学者直接使用其他人提供的模型就行,模型的下载后面会详细说。
2.功能区

stable diffusion支持多种绘图能力:

文生图 :根据提示词描述完成图片生成

图生图 :使用提供的图片作为参考,完成新图片的生成

高清化 :将已有图片进行高清化处理

图片信息 :如果一个图片是stable diffusion生成的,那么使用图片信息功能,可以输出生成这张图片使用的模型、提示词等信息

模型合并 :是一种高阶使用方式,可以将多个模型合并生成一个全新的模型

训练 :使用者可以根据自己的一些图片数据进行训练,生成一个全新的模型

setting :是对stable diffusion进行配置的控制面板,具体控制项,读者可以自行查看

扩展 :可以实现对stable diffusion进行插件功能扩展,来实现对stable diffusion进行功能增强,扩展功能下面会进行具体演示

3.正向提示词

正向提示词是你与模型对话的输出框,告诉模型你想要什么,告诉模型你要绘画的内容,如人物特征,形象,背景,图片质量等。

4.反向提示词

和正向提示词作用相反,就是告诉模型,你不想要什么,通常模型在输出的图形的上会有一些瑕疵,如怪异的手指,眼睛等一些细节,你可以在这里输入这些你不想要的内容。

5.图片输出参数区

这些参数主要是控制输出图片的一些控制参数。

宽度、高度:这两个参数直接控制输出图片的尺寸大小,当如输出图片尺寸越大,生成图片耗时越长

采样步数(Sampling
steps):决定了模型输出图片迭代的次数,迭代次数越多,耗时越长,但是效果却不是越好的,这个迭代次数,通常20-30直接,当然也取决于具体的模型,可以在生成图片的时候,可根据具体情况调整

生成次数和每次数量:决定了一次生成任务可以生成多个张图片,生成图片越多,耗时也就越长

6.图片生成

点击生成按钮,模型就开始根据你设置的参数来执行图片生成了动作了,可以根据进度条查看图片生成的进度。

可能有的老铁,经过前面几步的参数配置后,点击图片生成按钮,并没有生成图片,反而命令控制台有报错输出
如下图:

报错关键信息:

RuntimeError: "upsample_nearest2d_channels_last" not implemented for 'Half



  * 1
  * 2

报错的原因是现有的芯片组不支持Half参数,对于这个问题,可以在启动命令添加如下参数:./webui.sh –no-half 进行重新启动就可。

等待大概15s左右,就会在图片展示区看到你的第一张AI绘画了。

上面介绍模型选择区的时候说过,模型对于stable
diffusion来说至关重要,他决定了绘画的风格,比如你想要画一副二次元风格的图片,那么就尽量选择一个二次元画风的模型,模型的选择要比你输入多少提示词都要好使。

对于新手小白来说,可以使用别人训练好的模型直接使用,模型的选择和下载可以到下面这个两个网站:

https://huggingface.co/models

https://civitai.com/ (C站)

模型主要分为两种:大模型(checkpoint)和微调模型(lora)。

checkpoint大模型

下面我以C站为例演示一下如何下载模型。

1.进入C站后,可以浏览自己需要的大模型,也可以有目标的搜索自己需要的模型

2.选中自己需要的模型,点击下载按钮,就会进行模型的下载,通常大模型会比较大

3.点击演示图片右下方的 “i”,可以查看演示图片的配置信息:正方向提示词,使用的模型等,使用演示图片的配置信息进行模型的验证。

4.模型下载完毕后,需要将模型文件放到/stable diffusion/stable-diffusion-webui/models/Stable- diffusion目录下,重启 stable diffusion,在模型选择区就可以看到自己需要的模型了。

在stabel
diffusion的模型中,还有一种对生成图片画风影响比较大的模型,它就是Lora,虽然他是一种微调模型,但是对于生成图片的影响也比较明显,会影响生成图片的一些细节和图片的背景。

Lora模型的下载和checkpoint大模型下载方式是一样,也可以在C站中下载,Lora模型通常会比较小。下载后的Lora模型放到如下目录:
/stable diffusion/stable-diffusion-webui/models/Lora

lora模型如何使用呢?

lora模型会作为一个正向提示词,出现在正向提示词输入框中,使用形式如下:

 






文章来源于互联网:AI绘画Stable diffusion保姆级教程,看这一篇就够了「安装-配置-画图」

相关推荐: AI 绘画,一步一步教你免费安装Stable Diffusion,超详细教程

前言 stable diffusion是一款功能强大的AI绘画软件,而且它还是免费开源的软件,但如果你想要无限制使用它,必须要将它部署到本地计算机,这个过程需要用到其它几款辅助软件,还需要借助科学上网,所以很多人不知道怎么操作,看完这个详细教程,你就能拥有自己…

赞(0)
未经允许不得转载:5bei.cn大模型教程网 » AI绘画Stable diffusion保姆级教程,看这一篇就够了「安装-配置-画图」

【AI绘画】Stable Diffusion保姆级教程,看完连老奶奶都能上手!

大家好,我是写编程的木木。

都2024年了

你还不会用Stable Diffusion

今天为大家带来AI绘画界的另外一个扛把子Stable Diffusion,本期内容攻略妹保姆级喂饭教程,适合零基础、小白还有各种安装懒人,看完让你轻松上手!

本期目录:Stable Diffusion

1-配置要求

2-安装教程

3-关于版本及更新

4-启动打开

5-界面说明及绘制

1-配置要求

1、硬件要求:最好使用N卡(NVIDIA显卡),显卡的显存至少需要4GB以上显存才能在本地运行。

最低配置需要4GB显存,基本配置6GB显存,推荐配置12GB显存或者以上。(stable diffusion Ai 绘画主要是运行显卡,算力越强,出图越快。显存越大,所设置图片的分辨率越高)

2、网络要求:无特殊要求,也就是正常安装好就可以用。

3、系统要求:Win10或者Win11系统即可。

4、是否收费:开源免费,无需任何付费直接使用。

2-安装教程

Stable Diffusion最初安装较为繁琐,因此有众多UP主、博主对安装步骤进行封装制作为整合包(基于开源项目制作),一键解压即可完成部署进行使用,此处我们以B站UP主秋葉aaaki(UID12566101)制作的整合包为例进行教程。

在这里插入图片描述

Stable Diffusion一键整合包可在文末查看获取

1、首先鼠标双击打开启动器运行依赖。

2、点击安装。

3、等待安装。

4、点击关闭。

5、回到文件夹,解压图示压缩包

6、打开解压好的文件夹。

7、找到名为A启动器的应用程序,双击打开。

8、点击一键启动

9、弹出黑框运行 (耐心等待,切勿关闭)

10、自动打开浏览器运行Stable Diffusion,可以开始使用。

3-关于版本及更新

Stable Diffusion webui/绘世等各类整合包的更新比较频繁,可以在对应的启动器的版本管理功能内进行更新,当然一般不更新也不影响正常使用:

同样也可以在功能模块下载更新或者添加各类模型:

4-启动打开

每次使用前都是先打开启动器,然后通过启动器一键启动。

启动后会弹出运行框,等待运行完毕会自动打开Stable Diffusion。

5-界面说明及绘制

在Stable Diffusion界面最左上角就是主模型的切换,初始只有一个基础通用的anything模型。

可能有些小伙伴对模型的概念不太清楚,Checkpoint模型是SD能够绘图的基础模型,因此被称为大模型、底模型或者主模型,Web UI上就叫它Stable Diffusion模型。

安装完SD软件后,必须搭配主模型才能使用

不同的主模型,其画风和擅长的领域会有侧重,例如卡通风、国风、水墨风、现实真人、赛博朋克、武侠、科幻风等。

相比于Midjourney,Stable Diffusion最大的优势就是开源。Midjourney靠开发人员开发的少数模型进行输出,SD则每时每刻都有人在世界各地训练自己的模型并免费公开共享给全世界的使用者。

因此,学会使用各类模型对于学习使用Stable Diffusion非常重要。

在启动器的模型管理中已经有大佬们上传的各类模型,可以直接下载添加到本地,但下载添加后要注意需重新启动。

在大家也可以到civitai.com/上查看下载各类模型,大部分模型都有作者分享的提示词、参数等,支持直接下载。

相与主模型挨着的就是VAE模型:

VAE,全名Variational autoenconder,中文叫变分自编码器。作用是:滤镜+微调。

有的大模型是会自带VAE的,比如Chilloutmix。如果再加VAE则可能画面效果不会更好,甚至适得其反。

CLIP 终止层数,值越大丢失的提示词越多,例如:提示词为“拿着火柴的女孩”,当Clip skip调大,出来的结果可能只有女孩。

文生图:根据文本提示生成图像
图生图:根据提供的图像作为范本、结合文本提示生成图像

后期处理:对生成的图进行后期加工,如放大、修复、去除背景、蒙版等
图片信息:显示图像基本信息,包含提示词和模型信息(除非信息被隐藏)
模型合并:把已有的模型按不同比例进行合并生成新模型
训练:根据提供的图片训练具有某种图像风格的模型

描述语分为正向/负向描述,它们也叫tag(标签)或prompt(提示词)

**正面提示词:**相比Midjourney需要写得更精准和细致,描述少就给AI更多自由发挥空间。

**负面提示词:**不想让SD生成的内容。

生成下面的5个小图标(从左到右依次分别是)

复原上次生成图片的提示词(自动记录)

清空当前所有提示词

打开模型选择界面

应用选择的风格模板到当前的提示词

存档当前的正反向提示词

采样方法

Stable Diffusion中提供了19种采样方法(Sampler)可以选择,看着名字就觉得比较头晕,当然他们背后都是有科学的解释,但是想要都搞明白原理并不是很切合实际。还不如直接看看实际效果来感受一下,然后选觉得最合适的来用就好了。

采样步数

简单理解就是生成的细节程度,快速粗略测试10-15就可以,如果对出的图比较满意就25,细化例如是有毛皮的动物或有纹理的主题,生成的图像缺少一些细节,就提高到40

长宽尺寸(分辨率): 即生成图的长宽尺寸

总批次数: 每次生成图像的组数。一次运行生成图像的数量为生成批次 * 每批数量。

单批数量: 同时生成多少个图像。

点击生成后,输出的图片都会出现在图示下方,可选择保存位置、保存、打包下载,或者直接发送到图生图、重绘以及后期处理。

以上即为攻略妹的简单介绍及教程,目前SD并不存在通行可靠的使用规范,每个人的电脑配置、需求都不尽相同,再到模型、插件、提示词、参数调整等组合牵一发则动全身,需要大家耐心查看说明文档及各种学习,现在就快来下载使用吧~

写在最后

感兴趣的小伙伴,赠送全套AIGC学习资料,包含AI绘画、AI人工智能等前沿科技教程和软件工具,具体看这里。

AIGC技术的未来发展前景广阔,随着人工智能技术的不断发展,AIGC技术也将不断提高。未来,AIGC技术将在游戏和计算领域得到更广泛的应用,使游戏和计算系统具有更高效、更智能、更灵活的特性。同时,AIGC技术也将与人工智能技术紧密结合,在更多的领域得到广泛应用,对程序员来说影响至关重要。未来,AIGC技术将继续得到提高,同时也将与人工智能技术紧密结合,在更多的领域得到广泛应用。

一、AIGC所有方向的学习路线

AIGC所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。

二、AIGC必备工具

工具都帮大家整理好了,安装就可直接上手!

三、最新AIGC学习笔记

当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。

四、AIGC视频教程合集

观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

五、实战案例

纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。

若有侵权,请联系删除

文章来源于互联网:【AI绘画】Stable Diffusion保姆级教程,看完连老奶奶都能上手!

相关推荐: 3000W人气主编干货!零基础小白这样学AI绘画轻松又高效!

大家好我是花生~ 一直以来我都在持续分享各种 AI 资讯、神器和教程,不知道大家看多了会不会觉得有点无趣?前段时间@设哥和我说:“不要做一个“无情”的干货挖掘机了,你目前在 AI 绘画等方面也取得了一些成就,可以尝试把如何学习 AI 的过程、经验分享出来,或许…

赞(0)
未经允许不得转载:5bei.cn大模型教程网 » 【AI绘画】Stable Diffusion保姆级教程,看完连老奶奶都能上手!

AI绘画Stable diffusion保姆级教程,看这一篇就够了「安装-配置-画图」

随着chat gpt爆火之后,越来越多的人开始关注人工智能,人工智能相关的其他应用如AI绘画,也再次得到人们的关注。AI绘画的确很上头,最近几天小编也研究一下,这里把研究的过程以及中间遇到的问题整理一下,我这里遇到的问题,相信新入门的小白也会遇到,希望本文对你能有一定的帮助。

目前常用的AI绘画工具主要有两种:stable diffusionmidjourney
两者都是根据使用者输入绘画描述,进行图片生成,背后都是采用机器学习算法工作,对于两者的具体技术实现细节,这里不错过多描述,毕竟这方面小编也不擅长,哈哈哈。

从绘图效果来看,两者差别不大,对于日常绘图需求,两者都可以完全满足,这里我主要站在使用者的角度来对比一下两者的差异:
midjourney:是一个国外的商业化产品,操作简单,使用方便,出图效果完全取决于提示词。

使用门槛:

1.需要科学上网

2.需要付费,费用还挺高

这里是 midjourney的官网:https://www.midjourney.com/app/

stable diffusion 是一个免费的开源工具包,可以在本地安装,直接使用本地计算资源就可以进行绘画创作,同时stable diffusion提供了很多可以扩展的插件,可以根据场景需要,进行自定义功能扩展。

使用门槛:

对电脑配置有一定的要求,当然配置低的电脑可以可以玩,只不过出图效率比较低而已。

小编的电脑配置:
Mac os 12.5 M1
内存:16GB
CPU和GPU都是苹果芯片

输出512*512的图片大概15s左右。

前期为了学习和研究,满足一下自己的好奇心,这些都不是最重要。最重要的是先搞出一张图,把整个流程跑通。

作为一个程序员,小编比较喜欢自己折腾一些东西,这里我使用 本地安装stable diffusion的方式。

stable diffusion安装

stable diffusion的安装直接参考官网提供的安装指南即可:https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki

这里有各种芯片组使用的安装方式,我的电脑是 apple芯片,安装方式使用的是:
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Installation-on-Apple-Silicon

安装过程主要分为如下5步,如下图:

注意:这里使用了Home Brew完成对需要依赖的安装,Home brew的安装需要科学上网,如果没有条件的话,也可以使用国内镜像安装,操作方式可以参考:https://zhuanlan.zhihu.com/p/111014448/

按照上述步骤,经过10-20分钟后,可以完成安装。

安装完成后,在 stable-diffusion-webui 目录下执行./web-ui.sh,第一次执行会比较慢,会下载一些基础模型和依赖,大概等待5-10分钟后,在控制台会看到如下图输出,说明启动成功。

此时在浏览器访问地址:http://localhost:7860 即可。

此时你会看到如下图所示的页面:

可能有的老铁看到的页面和上图有些差异:

1.你的主题是黑色的,我的怎么是白的?

2.你的是汉化的,我的怎么全是英文?

是的,我的页面是经过调整配置的,具体怎么配置,我后面会详细说明。

在上图中,一种有7个重点区域

1.模型选择区

模型对于画图至关重要,它直接决定了你要出图的风格,对于初学者直接使用其他人提供的模型就行,模型的下载后面会详细说。

2.功能区

stable diffusion支持多种绘图能力:

文生图:根据提示词描述完成图片生成

图生图:使用提供的图片作为参考,完成新图片的生成

高清化:将已有图片进行高清化处理

图片信息:如果一个图片是stable diffusion生成的,那么使用图片信息功能,可以输出生成这张图片使用的模型、提示词等信息

模型合并:是一种高阶使用方式,可以将多个模型合并生成一个全新的模型

训练:使用者可以根据自己的一些图片数据进行训练,生成一个全新的模型

setting:是对stable diffusion进行配置的控制面板,具体控制项,读者可以自行查看

扩展:可以实现对stable diffusion进行插件功能扩展,来实现对stable diffusion进行功能增强,扩展功能下面会进行具体演示

3.正向提示词

正向提示词是你与模型对话的输出框,告诉模型你想要什么,告诉模型你要绘画的内容,如人物特征,形象,背景,图片质量等。

4.反向提示词

和正向提示词作用相反,就是告诉模型,你不想要什么,通常模型在输出的图形的上会有一些瑕疵,如怪异的手指,眼睛等一些细节,你可以在这里输入这些你不想要的内容。

5.图片输出参数区

这些参数主要是控制输出图片的一些控制参数。

宽度、高度:这两个参数直接控制输出图片的尺寸大小,当如输出图片尺寸越大,生成图片耗时越长

采样步数(Sampling steps):决定了模型输出图片迭代的次数,迭代次数越多,耗时越长,但是效果却不是越好的,这个迭代次数,通常20-30直接,当然也取决于具体的模型,可以在生成图片的时候,可根据具体情况调整

生成次数和每次数量:决定了一次生成任务可以生成多个张图片,生成图片越多,耗时也就越长

6.图片生成

点击生成按钮,模型就开始根据你设置的参数来执行图片生成了动作了,可以根据进度条查看图片生成的进度。

可能有的老铁,经过前面几步的参数配置后,点击图片生成按钮,并没有生成图片,反而命令控制台有报错输出
如下图:

报错关键信息:

RuntimeError: "upsample_nearest2d_channels_last" not implemented for 'Half

报错的原因是现有的芯片组不支持Half参数,对于这个问题,可以在启动命令添加如下参数:./webui.sh –no-half 进行重新启动就可。

等待大概15s左右,就会在图片展示区看到你的第一张AI绘画了。

模型下载

上面介绍模型选择区的时候说过,模型对于stable diffusion来说至关重要,他决定了绘画的风格,比如你想要画一副二次元风格的图片,那么就尽量选择一个二次元画风的模型,模型的选择要比你输入多少提示词都要好使。

对于新手小白来说,可以使用别人训练好的模型直接使用,模型的选择和下载可以到下面这个两个网站:

https://huggingface.co/models

https://civitai.com/ (C站)

模型主要分为两种:大模型(checkpoint)和微调模型(lora)。

checkpoint大模型

下面我以C站为例演示一下如何下载模型。

1.进入C站后,可以浏览自己需要的大模型,也可以有目标的搜索自己需要的模型

2.选中自己需要的模型,点击下载按钮,就会进行模型的下载,通常大模型会比较大

3.点击演示图片右下方的 “i”,可以查看演示图片的配置信息:正方向提示词,使用的模型等,使用演示图片的配置信息进行模型的验证。

4.模型下载完毕后,需要将模型文件放到/stable diffusion/stable-diffusion-webui/models/Stable-diffusion目录下,重启 stable diffusion,在模型选择区就可以看到自己需要的模型了。

在stabel diffusion的模型中,还有一种对生成图片画风影响比较大的模型,它就是Lora,虽然他是一种微调模型,但是对于生成图片的影响也比较明显,会影响生成图片的一些细节和图片的背景。

Lora模型的下载和checkpoint大模型下载方式是一样,也可以在C站中下载,Lora模型通常会比较小。下载后的Lora模型放到如下目录: /stable diffusion/stable-diffusion-webui/models/Lora

lora模型如何使用呢?

lora模型会作为一个正向提示词,出现在正向提示词输入框中,使用形式如下:

 


文章来源于互联网:AI绘画Stable diffusion保姆级教程,看这一篇就够了「安装-配置-画图」

相关推荐: OpenVINO版Stable Diffusion教程

OpenVINO版Stable Diffusion教程 stable_diffusion.openvino项目地址:https://gitcode.com/gh_mirrors/st/stable_diffusion.openvino 项目介绍 本项目stab…

赞(0)
未经允许不得转载:5bei.cn大模型教程网 » AI绘画Stable diffusion保姆级教程,看这一篇就够了「安装-配置-画图」
分享到: 更多 (0)

AI大模型,我们的未来

小欢软考联系我们