AI大模型教程
一起来学习

「Mac畅玩AIGC与多模态02」部署篇01 - 在 Mac 上部署 Ollama + Open WebUI

一、概述

本篇介绍如何在 macOS 环境下本地部署 Ollama 推理服务,并通过 Open WebUI 实现可视化交互界面。该流程无需 CUDA 或专用驱动,适用于 M 系列或 Intel 芯片的 Mac,便于快速测试本地大语言模型能力。

二、部署流程

1. 环境准备

  • 安装 Homebrew(如尚未安装):
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"

💡 如使用科学上网但终端依然无法连接 GitHub,可使用以下方式配置终端代理。

临时生效方式(适用于当前终端会话):

export http_proxy=http://127.0.0.1:7890
export https_proxy=http://127.0.0.1:7890

永久生效方式(适用于所有终端):

将以下内容追加至 ~/.zshrc~/.bash_profile

echo 'export http_proxy=http://127.0.0.1:7890' >> ~/.zshrc
echo 'export https_proxy=http://127.0.0.1:7890' >> ~/.zshrc
source ~/.zshrc

可在终端执行 curl https://github.com 验证代理是否生效。

  • 安装 Ollama:
brew install ollama
  • 下载并安装 Docker Desktop(用于运行 Open WebUI 容器):

访问官网下载安装包:https://www.docker.com/products/docker-desktop

安装后启动 Docker Desktop,并确保其处于运行状态(可通过菜单栏的 🐳 图标确认)。

  • 准备本地运行目录:
mkdir -p ~/openwebui

2. 安装与启动 Ollama

💡 若运行模型失败且提示如下错误:

ollama run qwen2.5:0.5b
Error: something went wrong, please see the ollama server logs for details

请先清除代理设置后再尝试:

unset http_proxy
unset https_proxy
ollama pull qwen2.5:0.5b

模型拉取成功后再次运行即可:

ollama run qwen2.5:0.5b

或使用以下命令提前拉取模型:

ollama pull deepseek-r1:1.5b

3. 启动 Ollama 服务

💡 若启动失败并提示端口被占用,如:

ollama serve
Error: listen tcp 0.0.0.0:11434: bind: address already in use

可使用以下命令查找并终止占用进程:

lsof -i :11434
kill -9 PID>

Ollama 默认监听 http://localhost:11434,无须额外配置,即可作为 Open WebUI 的 API 服务:

ollama serve

4. 部署 Open WebUI

⚠️ 请务必提前启动 Docker Desktop,否则将出现如下报错:

docker pull ghcr.io/open-webui/open-webui:main
Cannot connect to the Docker daemon at unix:///var/run/docker.sock. Is the docker daemon running?

💡 启动前请确保 Docker Desktop 已正常运行(可使用 docker info 命令验证)。

拉取官方最新版镜像:

docker pull ghcr.io/open-webui/open-webui:main

然后启动容器,连接 Ollama 接口服务:

docker run -d -p 8080:8080 
  -e OLLAMA_API_BASE_URL=http://localhost:11434 
  -v ~/openwebui:/app/backend/data 
  --name open-webui --restart always 
  ghcr.io/open-webui/open-webui:main

💡 若执行 docker run 时提示 container name “open-webui” 已存在,说明已有同名容器正在运行或未清理完毕。请先删除已有容器再重新运行:

docker stop open-webui && docker rm open-webui

执行成功后终端将返回一串容器 ID,如:

8e0c6422a6f4ef9db3a8a9c3f641b9608790d034cd45d9e5831134118f7266bc

这表示 Open WebUI 已在后台成功运行。

若浏览器访问 http://localhost:8080 无法打开页面,请按以下方式排查:

  • 确认容器正在运行:docker ps
  • 查看容器是否正常响应:docker logs open-webui
  • 尝试使用 http://127.0.0.1:8080 访问
  • 或使用本机局域网 IP 访问(如 http://192.168.xx.xx:8080

此时可通过浏览器访问:

http://localhost:8080

5. 资源释放

停止容器并清理环境:

docker stop open-webui && docker rm open-webui

如需停止 Ollama:

killall ollama

三、总结

通过本篇部署流程,已完成在 macOS 下基于 Ollama 本地推理服务的配置,并结合 Open WebUI 搭建可视化模型调用平台,适用于本地轻量测试、API 对接与插件开发等场景。

文章来源于互联网:「Mac畅玩AIGC与多模态02」部署篇01 – 在 Mac 上部署 Ollama + Open WebUI

相关推荐: 【生成模型】Stable Diffusion原理+代码

文章目录 前言 一、Latent space 二、AutoEncoder 和 VAE 1.AutoEncoder: 2.VAE: 三、Diffusion扩散模型 1.前向过程 2.逆向过程 四、多模态 cross attention 五、Stable Diff…

赞(0)
未经允许不得转载:5bei.cn大模型教程网 » 「Mac畅玩AIGC与多模态02」部署篇01 - 在 Mac 上部署 Ollama + Open WebUI
分享到: 更多 (0)

AI大模型,我们的未来

小欢软考联系我们