前言
记录本人安装llamafactory过程中遇到的问题。
一、linux中安装llamafactory
按照代码安装
git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
pip install -e ".[torch,metrics]"
二、启动web页面
llamafactory-cli webui #启动网页端
llamafactory-cli version #查看当前版本
但是一直报错 llamafactory-cli:未找到命令
查了许久,按照别人的方法cd到LLaMA-Factory目录中再次pip install -e “.[torch,metrics]”,毫无作用
三、解决方法:配置环境变量
原因是没配置llamafactory的环境
vim ~/.bashrc #修改用户的配置文件
export PATH=$PATH:/home/simit/.local/bin/ #在文件中加入这段命令,simit是我的用户名,因人而异
打开文件后 i 进入编辑模式,ESC退出编辑模式 shift+:进入指令模式后 wq保存
source ~/.bashrc
llamafactory-cli version 成功显示版本
四、补充错误及操作
1.通信不兼容
NotImplementedError: Using RTX 4000 series doesn’t support faster communication broadband via P2P or IB. Please set NCCL_P2P_DISABLE=“1” and NCCL_IB_DISABLE=“1” or use accelerate launch` which will do this automatically.
#继续添加环境变量
export NCCL_P2P_DISABLE=1
export NCCL_IB_DISABLE=1
2.单张显卡使用
LLaMA Factory 的 Web UI 目前只支持单卡训练/推理,当你的机器有多张显卡时请使用 CUDA_VISIBLE_DEVICES 指定一张显卡启动程序。
nvidia-smi #查看显卡信息及使用状态

CUDA_VISIBLE_DEVICES=4 llamafactory-cli webui #指定第四张显卡使用
总结
希望对您有所帮助!
文章来源于互联网:llamafactory-cli:未找到命令
相关推荐: Stable Diffusion WebUI Forge 支持 Flux 了!
前言 Flux横空出世有段时间了,模型效果也得到了广泛的认可,但是 Stable Diffusion WebUI 官方迟迟没有跟进,据说是因为要修改很多底层的处理机制,加之ComfyUI如火如荼,可能AUTOMATIC1111大佬的心气也不是很高,选择了躺平,…
5bei.cn大模型教程网











