AI大模型教程
一起来学习

llamafactory-cli:未找到命令

前言

记录本人安装llamafactory过程中遇到的问题。


一、linux中安装llamafactory

按照代码安装

git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
pip install -e ".[torch,metrics]"

二、启动web页面

llamafactory-cli webui                           #启动网页端
llamafactory-cli version                         #查看当前版本

但是一直报错 llamafactory-cli:未找到命令

查了许久,按照别人的方法cd到LLaMA-Factory目录中再次pip install -e “.[torch,metrics]”,毫无作用

三、解决方法:配置环境变量

原因是没配置llamafactory的环境

vim ~/.bashrc                                    #修改用户的配置文件
export PATH=$PATH:/home/simit/.local/bin/        #在文件中加入这段命令,simit是我的用户名,因人而异

打开文件后 i 进入编辑模式,ESC退出编辑模式 shift+:进入指令模式后 wq保存

source ~/.bashrc    

llamafactory-cli version 成功显示版本

四、补充错误及操作

1.通信不兼容
NotImplementedError: Using RTX 4000 series doesn’t support faster communication broadband via P2P or IB. Please set NCCL_P2P_DISABLE=“1” and NCCL_IB_DISABLE=“1” or use accelerate launch` which will do this automatically.

#继续添加环境变量
export NCCL_P2P_DISABLE=1
export NCCL_IB_DISABLE=1

2.单张显卡使用
LLaMA Factory 的 Web UI 目前只支持单卡训练/推理,当你的机器有多张显卡时请使用 CUDA_VISIBLE_DEVICES 指定一张显卡启动程序。

nvidia-smi                                       #查看显卡信息及使用状态

CUDA_VISIBLE_DEVICES=4 llamafactory-cli webui    #指定第四张显卡使用

总结

希望对您有所帮助!

文章来源于互联网:llamafactory-cli:未找到命令

相关推荐: Stable Diffusion WebUI Forge 支持 Flux 了!

前言 Flux横空出世有段时间了,模型效果也得到了广泛的认可,但是 Stable Diffusion WebUI 官方迟迟没有跟进,据说是因为要修改很多底层的处理机制,加之ComfyUI如火如荼,可能AUTOMATIC1111大佬的心气也不是很高,选择了躺平,…

赞(0)
未经允许不得转载:5bei.cn大模型教程网 » llamafactory-cli:未找到命令
分享到: 更多 (0)

AI大模型,我们的未来

小欢软考联系我们