AI大模型教程
一起来学习

一文搞定llama在linux的下载(huggingface版,使用镜像)

下载Llama需要两步走

  • 申请参数
  • 下载模型

申请参数

首先我在github上找到llama项目,链接:Llama3
权限申请我推荐使用huggingface。这是因为用meta llama官网申请的时候,我把信息都填好了,结果按accept and continue它没动静。但huggingface申请参数就很顺利。

我们在huggingface上找到了meta-llama项目,找到我们要下载的模型:比如Llama-3.2-1B

我们需要注册才能下载模型:

注册完了以后填信息,注意这里有个坑。这个table填China是批准不了的,可以天别的国家(学校等可以填别的国家的学校),邮箱我用的是个人邮箱。

填完了以后它审批好会发邮件给你(huggingface注册用的邮箱)这个时候你就能下载了。

下载模型

  1. huggingface access token

    创建token,token是write类别,然后把api key复制下来

  2. 设置镜像源 (可以将它写入~/.bashrc)

# 这个是设置镜像源的环境变量,建议将上面这一行写入 ~/.bashrc。若没有写入,则每次下载时都需要先输入该命令
export HF_ENDPOINT=https://hf-mirror.com 
  1. linux登录huggingface:
    这里我用的是huggingface-hub==0.23.4
    如果没有install的可以pip install 一下
huggingface-cli login
之后输入你的api key,你就成功登录了
  1. 用命令行进行下载
huggingface-cli download --resume-download meta-llama/Llama-3.2-1B --local-dir meta-llama/Llama-3.2-1B
# local dir代表本地存储的位置

参考链接:
api key的获取
huggingface login 的方式
国内镜像源使用方法
huggingface申请方法借鉴

文章来源于互联网:一文搞定llama在linux的下载(huggingface版,使用镜像)

相关推荐: 为什么 ComfyUI 是 Stable Diffusion 最佳的 UI!

ConfUi 的优势与易用性:一个详细的摘要 这段文字主要介绍了 ConfUi 的优势,并详细说明了其易用性和可扩展性。 ConfUi 的主要优势: 资源友好: 对于配置较低的电脑来说,ConfUi 更节省资源。 便携性强: ConfUi 是完全独立的便携式软…

赞(0)
未经允许不得转载:5bei.cn大模型教程网 » 一文搞定llama在linux的下载(huggingface版,使用镜像)
分享到: 更多 (0)

AI大模型,我们的未来

小欢软考联系我们