文章目录
隐藏
下载Llama需要两步走
- 申请参数
- 下载模型
申请参数
首先我在github上找到llama项目,链接:Llama3
权限申请我推荐使用huggingface。这是因为用meta llama官网申请的时候,我把信息都填好了,结果按accept and continue它没动静。但huggingface申请参数就很顺利。
我们在huggingface上找到了meta-llama项目,找到我们要下载的模型:比如Llama-3.2-1B
我们需要注册才能下载模型:
注册完了以后填信息,注意这里有个坑。这个table填China是批准不了的,可以天别的国家(学校等可以填别的国家的学校),邮箱我用的是个人邮箱。

填完了以后它审批好会发邮件给你(huggingface注册用的邮箱)这个时候你就能下载了。
下载模型
-
huggingface access token

创建token,token是write类别,然后把api key复制下来 -
设置镜像源 (可以将它写入~/.bashrc)
# 这个是设置镜像源的环境变量,建议将上面这一行写入 ~/.bashrc。若没有写入,则每次下载时都需要先输入该命令
export HF_ENDPOINT=https://hf-mirror.com
- linux登录huggingface:
这里我用的是huggingface-hub==0.23.4
如果没有install的可以pip install 一下
huggingface-cli login
之后输入你的api key,你就成功登录了
- 用命令行进行下载
huggingface-cli download --resume-download meta-llama/Llama-3.2-1B --local-dir meta-llama/Llama-3.2-1B
# local dir代表本地存储的位置
参考链接:
api key的获取
huggingface login 的方式
国内镜像源使用方法
huggingface申请方法借鉴
文章来源于互联网:一文搞定llama在linux的下载(huggingface版,使用镜像)
相关推荐: 为什么 ComfyUI 是 Stable Diffusion 最佳的 UI!
ConfUi 的优势与易用性:一个详细的摘要 这段文字主要介绍了 ConfUi 的优势,并详细说明了其易用性和可扩展性。 ConfUi 的主要优势: 资源友好: 对于配置较低的电脑来说,ConfUi 更节省资源。 便携性强: ConfUi 是完全独立的便携式软…
5bei.cn大模型教程网










