AI大模型教程
一起来学习

再见llama.cpp和ollama,mlx-community 开源 Llama-3.3-70B-Instruct-4bit

相信很多使用 Mac 计算机的人都由于没有 Nvidia 显卡而无法体验到 Meta 最新的 Llama-3.3-70B-Instruct 而困扰。多数还在安装 ollama 和 llama.cpp 通过 gguf 来体验 Llama-3.3-70B-Instruct 的神奇。现在 mlx 社区开源了 Llama-3.3-70B-Instruct-4bit ,这是通过 mlx-llm 的方式来运行的。

什么是mlx?

MLX 是 Apple Machine Learning Research 为 Apple silicon 提供的模型训练和服务框架,它包含多种示例:

  • 使用 MLX-LM 生成文本,使用 MLX-LM 为 GGUF 格式的模型生成文本;
  • 使用 LLaMA 生成大规模文本;使用 LoRA 进行微调;
  • 使用 Stable Diffusion 生成图像;
  • 使用 OpenAI 的 Whisper 进行语音识别。

使用

pip install mlx-lm
from mlx_lm import load, generate

model, tokenizer = load("mlx-community/Llama-3.3-70B-Instruct-4bit")

prompt="hello"

if hasattr(tokenizer, "apply_chat_template") and tokenizer.chat_template is not None:
    messages = [{"role": "user", "content": prompt}]
    prompt = tokenizer.apply_chat_template(
        messages, tokenize=False, add_generation_prompt=True
    )

response = generate(model, tokenizer, prompt=prompt, verbose=True)

mlx 使用 python 语言在内存回收上会比 llama.cpp 和 ollama 要稳定,但是速度就不会比C++的快。个人觉得 Python 易于开发的特性也非常适合初学者,也不用纠结于 gguf 的量化格式。

文章来源于互联网:再见llama.cpp和ollama,mlx-community 开源 Llama-3.3-70B-Instruct-4bit

相关推荐: 使用微调神器LLaMA-Factory轻松改变大语言模型的自我认知

一、引言 在本地化部署大语言模型时,为了能够改变大语言模型的自我认知,最简单的方式,就是使用系统提示词(system_prompt)的方式,譬如在与大模型进行对话时,首先将这段话作为message发送给大模型——{“role”:”system”,”conten…

赞(0)
未经允许不得转载:5bei.cn大模型教程网 » 再见llama.cpp和ollama,mlx-community 开源 Llama-3.3-70B-Instruct-4bit
分享到: 更多 (0)

AI大模型,我们的未来

小欢软考联系我们