AI大模型教程
一起来学习

Stable-Diffusion-WebUI启动报错OSError: Can‘t load tokenizer for ‘openai/clip-vit-large-patch14‘......

一、环境

M1Pro

Python3.10.6(因系统组件自带python3.9.6,需要使用pyenv 管理)

stable-diffusion-webui

model:sd-v1-4.ckpt [fe4efff1e1]

二、启动

./webui.sh –no-half

三、问题现象

系统可以正常启动,也弹出了页面,选择模型控制台报错

终端具体报错和报错文件:

OSError: Can’t load tokenizer for ‘openai/clip-vit-large-patch14’. If you were trying to load it from ‘https://huggingface.co/models’, make sure you don’t have a local directory with the same name. Otherwise, make sure ‘openai/clip-vit-large-patch14’ is the correct path to a directory containing all relevant files for a CLIPTokenizer tokenizer.

四:解决问题

  1. 下载openai/clip-vit-large-patch14/ 

openai/clip-vit-large-patch14 at main

共下载这九个文件到自定义件夹,文件夹自己定义(ps:我创建的目录在项目下stable-diffusion-webui/cache/transformers)

2. 使用上面的文件夹绝对路径替换报错文件中的openai/clip-vit-large-patch14

打开文件:vi /Users/wdl/IdeaProjects/stable-diffusion-webui/repositories/stable-diffusion-stability-ai/ldm/modules/encoders/modules.py (注意这个路径可能每个人安装的不一样,看具体的modules.py路径)

修改两处含“openai/clip-vit-large-patch14” 的地方,将“openai/clip-vit-large-patch14”修改为步骤1中9个文件的保存的文件夹路径。

五:启动验证

终端无报错,问题解决。

六、总结经验

运行时它需要访问huggingface.co去下载一些模型需要的文件,而大陆用户连接不上huggingface.co,导致我部署失败。

七:参考

Stable Diffusion WebUI linux部署问题_openai clip-vit-large-CSDN博客

文章来源于互联网:Stable-Diffusion-WebUI启动报错OSError: Can‘t load tokenizer for ‘openai/clip-vit-large-patch14‘……

相关推荐: 十相周骏:企业整体拥抱AI,而不仅仅是营销团队使用AIGC提升内容生产效率 | SMARTIES CHINA 2024终审报道①

     MMA中国联合主席、十相集团创始合伙人周骏(Elvis)   SMARTIES CHINA 2024终审活动在苏州·音昱水中天落下帷幕。来自各行业的40位品牌广告主代表,历时两天时间,通过紧张的评审和精彩的讨论,从178个优秀入围案例中评选出了每个类…

赞(0)
未经允许不得转载:5bei.cn大模型教程网 » Stable-Diffusion-WebUI启动报错OSError: Can‘t load tokenizer for ‘openai/clip-vit-large-patch14‘......
分享到: 更多 (0)

AI大模型,我们的未来

小欢软考联系我们