前提:
需要环境
git
git下载地址Git – Downloading Package
直接装即可
python3.10.6
下载地址
Python Release Python 3.10.6 | Python.org
记得python环境一定要3.10.6!!!
第一个版本
项目地址https://github.com/AUTOMATIC1111/stable-diffusion-webui
或者使用git来拉取(如果没有git,git也要去下载)
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
安装依赖
pip install -r requirements.txt
安装
打开stable-diffusion-webui-master文件夹
点开 webui-user.bat 文件
等待安装完成
如果没有问题,直接等待安装完成即可,使用
在浏览器打开,输入 http://127.0.0.1:7860 即可
Bug解决
Torch is not able to use GPU
如果不走gpu来跑的话,你可以直接打开 webui-user.bat 文件,右键编辑
然后加入 –lowvram –precision full –no-half –skip-torch-cuda-test 就解决了,这个是最快的一个解决方式,但是问题来了,cpu去渲染图片非常的慢。起码10分钟起步,gpu的话我1060 10秒左右,3060 3秒左右。
这个是另外的一个解决方案,使用gpu跑
下载驱动
下载对应驱动Official Advanced Driver Search | NVIDIA
根据自己显卡型号进行选择
然后直接安装即可
安装CUDA
首先查看自己电脑所支持的版本
打开桌面右键->nvidia控制面板
然后打开系统信息
然后
然后能看见目前能支持的是11.4版本
我这边的是11.4版本,所以我选择了11.4,你们根据自己情况来选择
然后一样安装即可
安装的时候选择高级安装
然后就是安装路径最好记一下
然后安装即可。
然后查看环境变量
点击设置–>搜索高级系统设置–>查看环境变量
看看有没有这4个变量,没有的话手动加上去即可
然后win+r 输入cmd,打开控制台,输入
这样就说明安装成功了
然后这个问题基本就解决了
然后这个时候跑stable-diffusion-webui-master里面的webui-user.bat(双击即可),这个应该问题就过去了
如果出现打开网页后出现Something went wrong Expecting value: line 1 column 1 (char 0)
因为给其他应用占用了
退出这个东西即可
然后 ai模型网站
LiblibAI-哩布哩布AI – 中国领先的AI创作平台
然后描述词的话,这个网站会可以找到,每张图片都有描述词
大模型放在stable-diffusion-webui-mastersd.webuiwebuimodelsStable-diffusion里面即可
lora模型放在
stable-diffusion-webui-mastersd.webuiwebuimodelsLora 这个文件夹即可
项目实例
github开源项目,ollama-chat-ui-vue,该项目包涵 stable diffusion 和 ollama,deepseek 本地接口对接,后续支持更多ai功能集成包括,ai生音乐,生成ppt等 ,最后githut开源项目不易,帮忙点点star


stable diffusion 的内容在 develop-stablediffusion 分支中

其他相关教程
YuE本地部署完整教程,可用于ai生成音乐,歌曲
Stable Diffusion vue本地api接口对接,模型切换, ai功能集成开源项目 ollama-chat-ui-vue
ollama-chat-ui-vue,一个可以用vue对接ollama的开源项目,可接入deepSeek
deepSeek本地部署,详细教程,Ollama安装
文章来源于互联网:stable diffusion 本地部署教程 2025最新版
相关推荐: 服务器Linux部署Stable Diffusion WebUI和LoRA训练自己的模型
用stable diffusion进行渲染画图,原链接是,作者写的挺好但是会出现很多问题没讲清楚,我做一个补充,也可以看原链接讲了很多原理知识,我在这方面也是绝对的小白【保姆级教程】Linux上部署Stable Diffusion WebUI和LoRA训练,拥…
1.前言:
最近看Stable Diffusion开源了,据说比Disco Diffusion更快,于是从git上拉取了项目尝试本地部署了,记录分享一下过程~
这里是官网介绍:https://stability.ai/blog/stable-diffusion-public-release

2.必要前提:
- 科学上网。很多链接都需要用到。
- 显卡的显存需要足够大,至于多大没看到哪有说,反正3g绝对不行
3.部署前准备:
本地化部署运行虽然很好,但是也有一些基本要求
(1)需要拥有NVIDIA显卡,GT1060起,显存4G以上。(已经不需要3080起,亲民不少)
(2)操作系统需要win10或者win11的系统。
(3)电脑内存16G或者以上。
(4)最好会魔法上网,否则网络波动,有些网页打不开,有时下载很慢。
(5)耐心,多尝试,多搜索。这个教程我已经重复过2次,因此很多问题基本上都踩坑并写出来了。所以请放心,能跑通的。
我的电脑配置供大家参考,Win10,I7,NVIDIA GT1050 4G,16G
生成一张20step的图大概20-30s(若使用更高性能的电脑,生成速度更快。)
4.使用的项目Stable diffusion WebUI项目
Stable diffusion大家都知道了,是当前最多人使用且效果最好的开源AI绘图软件之一,属于当红炸子鸡了。
不过,stable diffusion项目本地化的部署,是纯代码界面,使用起来对于非程序员没那么友好。
而stable diffusion webui,是基于stable diffusion 项目的可视化操作项目。
通过可视化的网页操作,更方便调试prompt,及各种参数。
同时也附加了很多功能,比如img2img功能,extra放大图片功能等等。

因此stable diffusion webui项目是很多人部署到本地的首选。
我们本教程就是以stable diffusion webui项目为例来操作的。
二、电脑环境配置
1.安装miniconda
这个是用来管理python版本的,他可以实现python的多版本切换。
下载地址:https://docs.conda.io/en/latest/miniconda.html

安装时按默认的一路next就行。
2.用管理员权限打开miniconda,输入conda -V 弹出版本号即为正确安装


3.配置库包下载环境,加快网络速度(替换下载库包地址为国内的清华镜像站)
执行下面
conda config --set show_channel_urls yes
生成.condarc 文件
在我的电脑/此电脑-C盘-users-你的账号名下用记事本打开并修改.condarc文件。(如我的路径是C:UsersAdministrator。)
把下面的内容全部复制进去,全部覆盖原内容,ctrl+s保存,关闭文件。
channels:
- defaults
show_channel_urls: true
default_channels:
- https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main
- https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/r
- https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/msys2
custom_channels:
conda-forge: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
msys2: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
bioconda: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
menpo: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
pytorch: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
pytorch-lts: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
simpleitk: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud
运行conda clean -i 清除索引缓存,以确保使用的是镜像站的地址。

4.创建python 3.10.6版本的环境
运行下面语句,创建环境
conda create --name lmd python=3.10.6
系统可能会提示y/n, 输入y,按回车即可。
显示done,那就完成了。
在你的C:ProgramDataMiniconda3envslmd已经创建了一个新的项目。
5.激活环境
输入conda activate lmd 回车。
6.升级pip,并设置pip的默认库包下载地址为清华镜像。
每一行输入后回车,等执行完再输入下一行,再回车。
python -m pip install --upgrade pip
pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple
不报错就是完成了。
7.安装git,用来克隆下载github的项目,比如本作中的stable diffusion webui
前往git官网https://git-scm.com/download/win

下载好后,一路默认安装,next即可。
开始菜单找到git cmd。
打开并输入下面指令。
git --version
查看git的版本,显示了版本号即安装成功。

8.安装cuda
cuda是NVIDIA显卡用来跑算法的依赖程序,所以我们需要它。
打开NVIDIA cuda官网,https://developer.nvidia.com/cuda-toolkit-archive
(这里有人可能会打不开网页,如果打不开,请用魔法上网。)
你会发现有很多版本,下载哪个版本呢?

回到一开始的miniconda的小窗,输入nvidia-smi,查看你的cuda版本

比如我的是12.1的版本,我就下载12.1.0的链接
下载完后安装,这个软件2个G,可以安装在c盘以外的地方。比如D盘。
好了,完成这步,电脑的基础环境设置终于完事了。
下面开始正式折腾stable diffusion了。
注意:如果提示此命令nvidia-smi,非内部命令时,按以下操作
把此路径:C:Program FilesNVIDIA CorporationNVIDIA NvDLISR,放入到环境变量中
显卡所在路径:

环境变量位置:

三、stable diffusion环境配置
1.下载stable diffusion源码
确认你的miniconda黑色小窗显示的是(把stable看成是lmd就行)

如果不是,则输入D: 按回车。
当然你也可以放在其他你想放的盘的根目录里面。
不建议放在c盘,因为这个项目里面有一些模型包,都是几个G几个G的,很容易你的C盘就满了,其他盘容量在10G以上的就都行。
再来克隆stable diffusion webui项目(下面简称sd-webui)
接着执行
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
注意,现在克隆的本地地址,就是下面经常提到的“项目根目录”。比如,我的项目根目录是D:stable-diffusion-webui
2.下载stable diffusion的训练模型
地址:https://huggingface.co/CompVis/stable-diffusion-v-1-4-original/tree/main
点击file and versions选项卡,下载sd-v1-4.ckpt训练模型。
(需要注册且同意协议,注册并同意协议之后即可下载)

注:这个模型是用于后续生成AI绘图的绘图元素基础模型库。
后面如果要用waifuai或者novelai,其实更换模型放进去sd-webui项目的模型文件夹即可。
我们现在先用stable diffusion 1.4的模型来继续往下走。
3.更改训练模型名称
下载好之后,请把模型更名成model.ckpt,然后放置在sd-webui的models/stable-diffusion目录下。比如我的路径是D:stable-diffusion-webuimodelsStable-diffusion

4. 安装GFPGAN
这是腾讯旗下的一个开源项目,可以用于修复和绘制人脸,减少stable diffusion人脸的绘制扭曲变形问题
地址:https://github.com/TencentARC/GFPGAN
把网页往下拉,拉到readme.md部分,找到V1.4 model,点击蓝色的1.4就可以下载。

下载好之后,放在sd-webui项目的根目录下面即可,比如我的根目录是D:stable-diffusion-webui
4.在miniconda的黑色小窗,准备开启运行ai绘图程序sd-webui
输入
cd stable-diffusion-webui
进入项目的根目录。
切记,一定要进入sd-webui的项目根目录后,才能执行下面的指令,否则会报错。
接着执行
webui-user.bat
然后回车,等待系统自动开始执行。
直到系统提示,running on local URL: http://127.0.0.1:7860
这就代表,你可以开始正式使用AI画画啦~

注意:
这一步可能经常各种报错,需要耐心和时间多次尝试。
不要关闭黑色小窗,哪怕它几分钟没有任何变化。
如果提示连接错误,可能需要开启或者关闭魔法上网,再重新执行webui-user.bat命令。
如果不小心退出了黑色窗口,则重新点击:开始菜单-程序-打开miniconda窗口,输入
conda activate lmd
并进入sd-webui项目根目录再执行
webui-user.bat
四、开始作画和调试
1.在浏览器,(比如谷歌浏览器),打开http://127.0.0.1:7860(注意,不要关闭miniconda的黑色窗口)

2.在prompt区域输入相关指令,比如beautiful landscape,然后点击右边的generate,即可生成第一张图片啦。

3.生成的状态和操作
网页会显示进度条,miniconda的黑色小窗也会显示进度条。
等进度条跑满,就能看到你生成的图啦。
如果不想生成了,可以点击interrupt停止生成,就会返回你目前为止已经生成的图片。(比如你要生成10张,已经生成了3张,点击interrupt,就会返回3张图片)
如果点击skip,就会跳过本张图片的生成,比如你想生成10张图,现在生成第3张,点击skip,第三张就不生成了,直接开始生成第四张,最后返回9张图片。

4.修改batch count数值,一次性生成多张图片
默认是1,一次性生成1张。
建议一次性生成4张或者以上,这样获得满意的图片概率会大一些,可以最多一次性生成最多100张。

但写得越大,一次性生成花费的时间越长,假设一张图30秒,设置10张就是300s,5分钟,100张则是3000s,50分钟。
5.好了,那现在就本地化部署完毕了,可以开始愉快地玩耍啦,祝你玩得开心~
五、安装过程中的错误处理
1、新版SD WebUI卡安装Open_Clip解决方法
https://www.bilibili.com/read/cv21253533
2、Stable Diffusion V2-Stability-AI处理
https://gitee.com/jerrylinkun/stable-diffusion-v2-stability-ai?_from=gitee_search
这里直接将该软件分享出来给大家吧~
1.stable diffusion安装包
随着技术的迭代,目前 Stable Diffusion 已经能够生成非常艺术化的图片了,完全有赶超人类的架势,已经有不少工作被这类服务替代,比如制作一个 logo 图片,画一张虚拟老婆照片,画质堪比相机。
最新 Stable Diffusion 除了有win多个版本,就算说底端的显卡也能玩了哦!此外还带来了Mac版本,仅支持macOS 12.3或更高版本。

2.stable diffusion视频合集
我们在学习的时候,往往书籍源码难以理解,阅读困难,这时候视频教程教程是就很适合了,生动形象加上案例实战,一步步带你入坑stable diffusion,科学有趣才能更方便的学习下去。

3.stable diffusion模型下载
stable diffusion往往一开始使用时图片等无法达到理想的生成效果,这时则需要通过使用大量训练数据,调整模型的超参数(如学习率、训练轮数、模型大小等),可以使得模型更好地适应数据集,并生成更加真实、准确、高质量的图像。

4.stable diffusion提示词
提示词是构建由文本到图像模型解释和理解的单词的过程。可以把它理解为你告诉 AI 模型要画什么而需要说的语言,整个SD学习过程中都离不开这本提示词手册。

5.SD从0到落地实战演练

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名SD大神的正确特征了。
这份完整版的stable diffusion资料我已经打包好,需要的点击下方插件,即可前往免费领取!

文章来源于互联网:Stable Diffusion 本地部署教程2025最新版
相关推荐: php接口安全 智能写作
PHP接口安全 在Web开发中,PHP是一种广泛使用的服务器端脚本语言。随着越来越多的服务通过API(应用程序编程接口)来提供,确保这些接口的安全性变得至关重要。不安全的API可能会导致敏感数据泄露、服务被滥用或遭到拒绝服务攻击等问题。本文将详细介绍如何构建安…