小时候比较喜欢画画,如今AI盛行,各种绘画 工具层出不穷,网上也看了很多,stablediffusion(sd)和midjunery(mj)算是主流,国内的文心、天工、甚至抖音什么的,我也尝试过,但是总的来说,跟sd和mj相比真的不好用。后来我找了网上一些运营号问,大多采用的是mj,不过我个人还是想试试,亲自对比一下,鉴于mj的付费,我先试了sd,(附安装包) 下面是我安装使用过程中的一些经历。
我的是Mac,所以就按照这个系统来了
一、安装homebrew
$ /bin/bash -c "$(curl -fsSL https ://gitee.com/ineo6/homebrew-install/raw/master/install.sh)"
// 等待即可,检查是否安装成功
brew -V
// 打印出 homebrew 4.0.11 表示安装成功
二、安装python
brew install cmake protobuf rust python@3.10 git wget
也可以去官网下载安装包3.10.9 或者3.10.10,手动安装
三、下载SD包(附安装包)
1、下载资料包,解压安装。
2、从git仓库直接下载
git clone https://github .com/AUTOMATIC1111/stable-diffusion-webui
四、下载模型
可以使用上面资料包里的模型,
这里需要注意的是,下载后放置目录stable-diffusion-webui/models/Stable-diffusion/下。模型有ckpt文件,也有safetensors文件,统统放进去就行。
五、运行
在终端中进入你安装的“stable-diffusion-webui”目录,运行 ./webui.sh
第一次运行会安装一些依赖,这个过程会遇到诸多问题,下面我列举几个。
六、运行问题解决
1、python版本问题
sd运行python是3,但是默认是2,一般来说是不进行覆盖的,覆盖它可能会导致系统脚本和其他依赖默认 Python 的软件出现问题。一般我们采用软连的方式,如:sudo ln -s /usr/local/bin/python3 /usr/bin/python,但是你会发现报错了ln: /usr/bin/python: Operation not permitted,也查过其他各种删除方式都不得行。
首先安装高版本的python后,按照下面的步骤来:
(1、查看版本
which python
// /usr/bin/python
which python3
// /usr/local/bin/python3
(2、编辑profile文件
vi ~/.bash_profile
// 末尾追加内容
alias python="/usr/local/bin/python3"
alias python2="/usr/bin/python"
(3、生效启用
source ~/.bash_profile
这里还有个问题,如果新开一个终端界面,需要重启这个命令才能生效。
2、No SDP backend avai lable
Launching Web UI with arguments: --skip-torch-cuda-test --upcast-sampling --no-half-vae --use-cpu interrogate
no module 'xformers'. Processing without...
No SDP backend available, likely because you are running in pytorch versions
原因:torch 的版本不对 解决方案:在安装目录stable-diffusion-webui 下,编辑webui-macos-env.sh文件 我的原来的配置文件如下;
export install_dir="$HOME"
export COMMANDLINE_ARGS="--skip-torch-cuda-test --upcast-sampling --no-half-vae --use-cpu interrogate"
export TORCH_COMMAND="pip install torch==1.12.1 torchvision==0.13.1"
export K_DIFFUSION_REPO="https://github.com/brkirch/k-diffusion.git"
export K_DIFFUSION_COMMIT_HASH="51c9778f269cedb55a4d88c79c0246d35bdadb71"
export PYTORCH_ENABLE_MPS_FALLBACK=1
修改好的配置文件如下:
(1、在COMMANDLINE_ARGS 参数的后面添加了–reinstall-torch (2、export TORCH_COMMAND=“pip install torch_2.0.1 torchvision_0.15.2”,将torch的版本修改成2.0的
export install_dir="$HOME"
export COMMANDLINE_ARGS="--skip-torch-cuda-test --upcast-sampling --no-half-vae --use-cpu interrogate --reinstall-torch"
export TORCH_COMMAND="pip install torch==2.0.1 torchvision==0.15.2"
#export TORCH_COMMAND="pip install torch==1.12.1 torchvision==0.13.1"
export K_DIFFUSION_REPO="https://github.com/brkirch/k-diffusion.git"
export K_DIFFUSION_COMMIT_HASH="51c9778f269cedb55a4d88c79c0246d35bdadb71"
export PYTORCH_ENABLE_MPS_FALLBACK=1
3、Symbol not found:_VTRegisterSupplementalVideoDecoderIfAvailable
这个提示其实还是跟依赖版本有关,opencv版本太老,可以这样手工更新一下:
cd venv/bin
source activate
./python3.10 -m pip install --upgrade pip
pip3 install opencv-python==4.6.0.66 deactivate
4、“LayerNormKernelImpl” not implemented for’Half’
或者也会有这样的提示Failed to create model quickly; will retry using slow method.其实都是显卡的问题,一般我们工作自用的电脑的显存都不太能够的,所以这里需要修改一下运行方式:
编辑webui-user.sh,添加:
export COMMANDLINE_ARGS="--precision full --no-half --skip-torch-cuda-test
或者我个人采用以下运行方式:
./webui.sh --precision full --no-half
大家注意这里的half,如果你有足够的计算资源和内存,最简单的解决方案是将数据类型更改为全精度(float32),我们这里强调一半,其实就是半精度替代实现方案。有兴趣可以去了解一下精度问题。
本地跑起来了,确实比较慢,风扇都要转费了。SD跑图除了需要通常所说的描述要到位,还要选合适的模型或者插件,才能做出理想的图片。
这里直接将该软件分享出来给大家吧~
据类型更改为全精度(float32),我们这里强调一半,其实就是半精度替代实现方案。有兴趣可以去了解一下精度问题。
七、总结
本地跑起来了,确实比较慢,风扇都要转费了。SD跑图除了需要通常所说的描述要到位,还要选合适的模型或者插件,才能做出理想的图片。
这里直接将该软件分享出来给大家吧~
这里直接将该软件分享出来给大家吧~
1.stable diffusion安装包
随着技术的迭代,目前 Stable Diffusion 已经能够生成非常艺术化的图片了,完全有赶超人类的架势,已经有不少工作被这类服务替代,比如制作一个 logo 图片,画一张虚拟老婆照片,画质堪比相机。
最新 Stable Diffusion 除了有win多个版本,就算说底端的显卡也能玩了哦!此外还带来了Mac版本,仅支持macOS 12.3或更高版本 。
2.stable diffusion视频合集
我们在学习的时候,往往书籍源码难以理解,阅读困难,这时候视频教程教程是就很适合了,生动形象加上案例实战,一步步带你入坑stable diffusion,科学有趣才能更方便的学习下去。
3.stable diffusion模型下载
stable diffusion往往一开始使用时图片等无法达到理想的生成效果,这时则需要通过使用大量训练数据,调整模型的超参数(如学习率、训练轮数、模型大小等),可以使得模型更好地适应数据集,并生成更加真实、准确、高质量的图像。
4.stable diffusion提示词
提示词是构建由文本到图像模型解释和理解的单词的过程。可以把它理解为你告诉 AI 模型要画什么而需要说的语言,整个SD学习过程中都离不开这本提示词手册。
5.SD从0到落地实战演练
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名SD大神的正确特征了。
这份完整版的stable diffusion资料我已经打包好,需要的点击下方插件,即可前往免费领取!
文章来源于互联网:Stable Diffusion的安装和问题解决(附安装包和大模型)
相关推荐: ComfyUI:Stable Diffusion 及 LoRA、VAE 、ControlNet模型解析
目录 Stable Diffusion流程 扩散过程 去噪过程 checkpoints LoRA LoRA 位置与结构 LoRA 层与原层的关系 LoRA 层的参数拆解 VAE 训练特定 VAE 时更新的参数部分 ControlNet ControlNet 位…
小时候比较喜欢画画,如今AI盛行,各种绘画 工具层出不穷,网上也看了很多,stable diffusion(sd)和midjunery(mj)算是主流,国内的文心、天工、甚至抖音什么的,我也尝试过,但是总的来说,跟sd和mj相比真的不好用。后来我找了网上一些运营号问,大多采用的是mj,不过我个人还是想试试,亲自对比一下,鉴于mj的付费,我先试了sd,(附安装包) 下面是我安装使用过程中的一些经历。
我的是Mac,所以就按照这个系统来了
一、安装homebrew
$ /bin/bash -c "$(curl -fsSL https ://gitee.com/ineo6/homebrew-install/raw/master/install.sh)"
// 等待即可,检查是否安装成功
brew -V
// 打印出 homebrew 4.0.11 表示安装成功
* 1
* 2
* 3
* 4
* 5
二、安装python
brew install cmake protobuf rust python@3.10 git wget
* 1
* 2
也可以去官网下载安装包3.10.9 或者3.10.10,手动安装
三、下载SD包(附安装包)
1、下载资料包,解压安装。
2、从git仓库直接下载
git clone https://github .com/AUTOMATIC1111/stable-diffusion-webui
* 1
* 2
四、下载模型
可以使用上面资料包里的模型,
这里需要注意的是,下载后放置目录stable-diffusion-webui/models/Stable- diffusion/下。模型有ckpt文件,也有safetensors文件,统统放进去就行。
五、运行
在终端中进入你安装的“stable-diffusion-webui”目录,运行 ./webui.sh
第一次运行会安装一些依赖,这个过程会遇到诸多问题,下面我列举几个。
六、运行问题解决
1、python版本问题 🔗
sd运行python是3,但是默认是2,一般来说是不进行覆盖的,覆盖它可能会导致系统脚本和其他依赖默认 Python 的软件出现问题。一般我们采用软连的方式,如:sudo ln -s /usr/local/bin/python3 /usr/bin/python,但是你会发现报错了ln: /usr/bin/python: Operation not permitted,也查过其他各种删除方式都不得行。
首先安装高版本的python后,按照下面的步骤来:
(1、查看版本
which python
// /usr/bin/python
which python3
// /usr/local/bin/python3
* 1
* 2
* 3
* 4
* 5
(2、编辑profile文件
vi ~/.bash_profile
// 末尾追加内容
alias python="/usr/local/bin/python3"
alias python2="/usr/bin/python"
* 1
* 2
* 3
* 4
* 5
(3、生效启用
source ~/.bash_profile
* 1
* 2
这里还有个问题,如果新开一个终端界面,需要重启这个命令才能生效。
2、No SDP backend avai lable 🔗
Launching Web UI with arguments: --skip-torch-cuda-test --upcast-sampling --no-half-vae --use-cpu interrogate
no module 'xformers'. Processing without...
No SDP backend available, likely because you are running in pytorch versions
原因:torch 的版本不对 解决方案:在安装目录stable-diffusion-webui 下,编辑webui-macos- env.sh文件 我的原来的配置文件如下;
export install_dir="$HOME"
export COMMANDLINE_ARGS="--skip-torch-cuda-test --upcast-sampling --no-half-vae --use-cpu interrogate"
export TORCH_COMMAND="pip install torch==1.12.1 torchvision==0.13.1"
export K_DIFFUSION_REPO="https://github.com/brkirch/k-diffusion.git"
export K_DIFFUSION_COMMIT_HASH="51c9778f269cedb55a4d88c79c0246d35bdadb71"
export PYTORCH_ENABLE_MPS_FALLBACK=1
* 1
* 2
* 3
* 4
* 5
* 6
* 7
修改好的配置文件如下:
(1、在COMMANDLINE_ARGS 参数的后面添加了–reinstall-torch (2、export TORCH_COMMAND=“pip install torch_2.0.1 torchvision_0.15.2”,将torch的版本修改成2.0的
export install_dir="$HOME"
export COMMANDLINE_ARGS="--skip-torch-cuda-test --upcast-sampling --no-half-vae --use-cpu interrogate --reinstall-torch"
export TORCH_COMMAND="pip install torch==2.0.1 torchvision==0.15.2"
#export TORCH_COMMAND="pip install torch==1.12.1 torchvision==0.13.1"
export K_DIFFUSION_REPO="https://github.com/brkirch/k-diffusion.git"
export K_DIFFUSION_COMMIT_HASH="51c9778f269cedb55a4d88c79c0246d35bdadb71"
export PYTORCH_ENABLE_MPS_FALLBACK=1
* 1
* 2
* 3
* 4
* 5
* 6
* 7
* 8
3、Symbol not found: _VTRegisterSupplementalVideoDecoderIfAvailable 🔗
这个提示其实还是跟依赖版本有关,opencv版本太老,可以这样手工更新一下:
cd venv/bin
source activate
./python3.10 -m pip install --upgrade pip
pip3 install opencv-python==4.6.0.66 deactivate
* 1
* 2
* 3
* 4
* 5
4、“LayerNormKernelImpl” not implemented for ‘Half’ 🔗
或者也会有这样的提示Failed to create model quickly; will retry using slow method.其实都是显卡的问题,一般我们工作自用的电脑的显存都不太能够的,所以这里需要修改一下运行方式:
编辑webui-user.sh,添加:
export COMMANDLINE_ARGS="--precision full --no-half --skip-torch-cuda-test
* 1
* 2
或者我个人采用以下运行方式:
./webui.sh --precision full --no-half
* 1
* 2
大家注意这里的half,如果你有足够的计算资源和内存,最简单的解决方案是将数据类型更改为全精度(float32),我们这里强调一半,其实就是半精度替代实现方案。有兴趣可以去了解一下精度 问题。
本地跑起来了,确实比较慢,风扇都要转费了。SD跑图除了需要通常所说的描述要到位,还要选合适的模型或者插件,才能做出理想的图片。
这里直接将该软件分享出来给大家吧~
据类型更改为全精度(float32),我们这里强调一半,其实就是半精度替代实现方案。有兴趣可以去了解一下精度 问题。
七、总结
本地跑起来了,确实比较慢,风扇都要转费了。SD跑图除了需要通常所说的描述要到位,还要选合适的模型或者插件,才能做出理想的图片。
这里直接将该软件分享出来给大家吧~
最后
如果你是真正有耐心想花功夫学一门技术去改变现状,我可以把这套AI教程无偿分享给你,包含了AIGC资料包括AIGC入门学习思维导图 、AIGC工具安装包 、精品AIGC学习书籍手册 、AI绘画视频教程 、AIGC实战学习 等。
这份完整版的AIGC资料我已经打包好,长按下方二维码,即可免费领取!
【AIGC所有方向的学习路线思维导图】
【AIGC工具库】
【精品AIGC学习书籍手册】
【AI绘画视频合集】
这份完整版的AIGC资料我已经打包好,长按下方二维码,即可免费领取!
文章来源于互联网:Stable Diffusion的安装和问题解决(附安装包和大模型)
相关推荐: DIFFUSION 系列笔记| Latent Diffusion Model、Stable Diffusion 基础概念、数学原理、代码分析、案例展示
目录 Latent Diffusion Model LDM 主要思想 LDM使用示例 LDM Pipeline LDM 中的 UNET 准备时间步 time steps 预处理阶段 pre-process 下采样过程 down sampling 中间处理 …
小时候比较喜欢画画,如今AI盛行,各种绘画 工具层出不穷,网上也看了很多,stable diffusion(sd)和midjunery(mj)算是主流,国内的文心、天工、甚至抖音什么的,我也尝试过,但是总的来说,跟sd和mj相比真的不好用。后来我找了网上一些运营号问,大多采用的是mj,不过我个人还是想试试,亲自对比一下,鉴于mj的付费,我先试了sd,(附安装包) 下面是我安装使用过程中的一些经历。
我的是Mac,所以就按照这个系统来了
一、安装homebrew
$ /bin/bash -c "$(curl -fsSL https ://gitee.com/ineo6/homebrew-install/raw/master/install.sh)"
// 等待即可,检查是否安装成功
brew -V
// 打印出 homebrew 4.0.11 表示安装成功
二、安装python
brew install cmake protobuf rust python@3.10 git wget
也可以去官网下载安装包3.10.9 或者3.10.10,手动安装
三、下载SD包(附安装包)
1、下载资料包,解压安装。
2、从git仓库直接下载
git clone https://github .com/AUTOMATIC1111/stable-diffusion-webui
四、下载模型
可以使用上面资料包里的模型,
这里需要注意的是,下载后放置目录stable-diffusion-webui/models/Stable-diffusion/下。模型有ckpt文件,也有safetensors文件,统统放进去就行。
五、运行
在终端中进入你安装的“stable-diffusion-webui”目录,运行 ./webui.sh
第一次运行会安装一些依赖,这个过程会遇到诸多问题,下面我列举几个。
六、运行问题解决
1、python版本问题 🔗
sd运行python是3,但是默认是2,一般来说是不进行覆盖的,覆盖它可能会导致系统脚本和其他依赖默认 Python 的软件出现问题。一般我们采用软连的方式,如:sudo ln -s /usr/local/bin/python3 /usr/bin/python,但是你会发现报错了ln: /usr/bin/python: Operation not permitted,也查过其他各种删除方式都不得行。
首先安装高版本的python后,按照下面的步骤来:
(1、查看版本
which python
// /usr/bin/python
which python3
// /usr/local/bin/python3
(2、编辑profile文件
vi ~/.bash_profile
// 末尾追加内容
alias python="/usr/local/bin/python3"
alias python2="/usr/bin/python"
(3、生效启用
source ~/.bash_profile
这里还有个问题,如果新开一个终端界面,需要重启这个命令才能生效。
2、No SDP backend avai lable 🔗
Launching Web UI with arguments: --skip-torch-cuda-test --upcast-sampling --no-half-vae --use-cpu interrogate
no module 'xformers'. Processing without...
No SDP backend available, likely because you are running in pytorch versions
原因:torch 的版本不对 解决方案:在安装目录stable-diffusion-webui 下,编辑webui-macos-env.sh文件 我的原来的配置文件如下;
export install_dir="$HOME"
export COMMANDLINE_ARGS="--skip-torch-cuda-test --upcast-sampling --no-half-vae --use-cpu interrogate"
export TORCH_COMMAND="pip install torch==1.12.1 torchvision==0.13.1"
export K_DIFFUSION_REPO="https://github.com/brkirch/k-diffusion.git"
export K_DIFFUSION_COMMIT_HASH="51c9778f269cedb55a4d88c79c0246d35bdadb71"
export PYTORCH_ENABLE_MPS_FALLBACK=1
修改好的配置文件如下:
(1、在COMMANDLINE_ARGS 参数的后面添加了–reinstall-torch (2、export TORCH_COMMAND=“pip install torch_2.0.1 torchvision_0.15.2”,将torch的版本修改成2.0的
export install_dir="$HOME"
export COMMANDLINE_ARGS="--skip-torch-cuda-test --upcast-sampling --no-half-vae --use-cpu interrogate --reinstall-torch"
export TORCH_COMMAND="pip install torch==2.0.1 torchvision==0.15.2"
#export TORCH_COMMAND="pip install torch==1.12.1 torchvision==0.13.1"
export K_DIFFUSION_REPO="https://github.com/brkirch/k-diffusion.git"
export K_DIFFUSION_COMMIT_HASH="51c9778f269cedb55a4d88c79c0246d35bdadb71"
export PYTORCH_ENABLE_MPS_FALLBACK=1
3、Symbol not found: _VTRegisterSupplementalVideoDecoderIfAvailable 🔗
这个提示其实还是跟依赖版本有关,opencv版本太老,可以这样手工更新一下:
cd venv/bin
source activate
./python3.10 -m pip install --upgrade pip
pip3 install opencv-python==4.6.0.66 deactivate
4、“LayerNormKernelImpl” not implemented for ‘Half’ 🔗
或者也会有这样的提示Failed to create model quickly; will retry using slow method.其实都是显卡的问题,一般我们工作自用的电脑的显存都不太能够的,所以这里需要修改一下运行方式:
编辑webui-user.sh,添加:
export COMMANDLINE_ARGS="--precision full --no-half --skip-torch-cuda-test
或者我个人采用以下运行方式:
./webui.sh --precision full --no-half
大家注意这里的half,如果你有足够的计算资源和内存,最简单的解决方案是将数据类型更改为全精度(float32),我们这里强调一半,其实就是半精度替代实现方案。有兴趣可以去了解一下精度 问题。
本地跑起来了,确实比较慢,风扇都要转费了。SD跑图除了需要通常所说的描述要到位,还要选合适的模型或者插件,才能做出理想的图片。
这里直接将该软件分享出来给大家吧~
1.stable diffusion安装包
随着技术的迭代,目前 Stable Diffusion 已经能够生成非常艺术化的图片了,完全有赶超人类的架势,已经有不少工作被这类服务替代,比如制作一个 logo 图片,画一张虚拟老婆照片,画质堪比相机。
最新 Stable Diffusion 除了有win多个版本,就算说底端的显卡也能玩了哦!此外还带来了Mac版本,仅支持macOS 12.3或更高版本 。
2.stable diffusion视频合集
我们在学习的时候,往往书籍源码难以理解,阅读困难,这时候视频教程教程是就很适合了,生动形象加上案例实战,一步步带你入坑stable diffusion,科学有趣才能更方便的学习下去。
3.stable diffusion模型下载
stable diffusion往往一开始使用时图片等无法达到理想的生成效果,这时则需要通过使用大量训练数据,调整模型的超参数(如学习率、训练轮数、模型大小等),可以使得模型更好地适应数据集,并生成更加真实、准确、高质量的图像。
4.stable diffusion提示词
提示词是构建由文本到图像模型解释和理解的单词的过程。可以把它理解为你告诉 AI 模型要画什么而需要说的语言,整个SD学习过程中都离不开这本提示词手册。
5.SD从0到落地实战演练
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名SD大神的正确特征了。
这份完整版的stable diffusion资料我已经打包好,需要的点击下方添加,即可前往免费领取!
文章来源于互联网:Stable Diffusion的安装和问题解决(附安装包和大模型)
相关推荐: Stable Diffusion如何实现API切换模型
研究过Stable Diffusion接口文档的小伙伴们肯定知道,文档中并没有提供模型参数,那么如何实现api切换模型呢? 我们先来看原先的sd-webui的代码,找到模型接收请求参数的中心代码,然后自己修改源码,将这些请求参数传递到这段中心函数中去。 Sta…
上一篇OpenAI前首席科学家Ilya Sutskever开启AI安全创业丨美图WHEE V2新版上线丨百度橙篇首创10万字长文生成
下一篇Claude 3.5突然上线,竟比GPT-4o还强!全新Artifacts改写模型交互