一、概述
本篇介绍如何在 macOS 环境下本地部署 Ollama 推理服务,并通过 Open WebUI 实现可视化交互界面。该流程无需 CUDA 或专用驱动,适用于 M 系列或 Intel 芯片的 Mac,便于快速测试本地大语言模型能力。
二、部署流程
1. 环境准备
- 安装 Homebrew(如尚未安装):
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
💡 如使用科学上网但终端依然无法连接 GitHub,可使用以下方式配置终端代理。
临时生效方式(适用于当前终端会话):
export http_proxy=http://127.0.0.1:7890
export https_proxy=http://127.0.0.1:7890
永久生效方式(适用于所有终端):
将以下内容追加至 ~/.zshrc 或 ~/.bash_profile:
echo 'export http_proxy=http://127.0.0.1:7890' >> ~/.zshrc
echo 'export https_proxy=http://127.0.0.1:7890' >> ~/.zshrc
source ~/.zshrc
可在终端执行 curl https://github.com 验证代理是否生效。
- 安装 Ollama:
brew install ollama
- 下载并安装 Docker Desktop(用于运行 Open WebUI 容器):
访问官网下载安装包:https://www.docker.com/products/docker-desktop
安装后启动 Docker Desktop,并确保其处于运行状态(可通过菜单栏的 🐳 图标确认)。
- 准备本地运行目录:
mkdir -p ~/openwebui

2. 安装与启动 Ollama
💡 若运行模型失败且提示如下错误:
ollama run qwen2.5:0.5b
Error: something went wrong, please see the ollama server logs for details
请先清除代理设置后再尝试:
unset http_proxy
unset https_proxy
ollama pull qwen2.5:0.5b
模型拉取成功后再次运行即可:
ollama run qwen2.5:0.5b
或使用以下命令提前拉取模型:
ollama pull deepseek-r1:1.5b
3. 启动 Ollama 服务
💡 若启动失败并提示端口被占用,如:
ollama serve
Error: listen tcp 0.0.0.0:11434: bind: address already in use
可使用以下命令查找并终止占用进程:
lsof -i :11434
kill -9 PID>
Ollama 默认监听 http://localhost:11434,无须额外配置,即可作为 Open WebUI 的 API 服务:
ollama serve

4. 部署 Open WebUI
⚠️ 请务必提前启动 Docker Desktop,否则将出现如下报错:
docker pull ghcr.io/open-webui/open-webui:main
Cannot connect to the Docker daemon at unix:///var/run/docker.sock. Is the docker daemon running?
💡 启动前请确保 Docker Desktop 已正常运行(可使用 docker info 命令验证)。
拉取官方最新版镜像:
docker pull ghcr.io/open-webui/open-webui:main
然后启动容器,连接 Ollama 接口服务:
docker run -d -p 8080:8080
-e OLLAMA_API_BASE_URL=http://localhost:11434
-v ~/openwebui:/app/backend/data
--name open-webui --restart always
ghcr.io/open-webui/open-webui:main
💡 若执行 docker run 时提示 container name “open-webui” 已存在,说明已有同名容器正在运行或未清理完毕。请先删除已有容器再重新运行:
docker stop open-webui && docker rm open-webui
执行成功后终端将返回一串容器 ID,如:
8e0c6422a6f4ef9db3a8a9c3f641b9608790d034cd45d9e5831134118f7266bc
这表示 Open WebUI 已在后台成功运行。
若浏览器访问 http://localhost:8080 无法打开页面,请按以下方式排查:
- 确认容器正在运行:
docker ps - 查看容器是否正常响应:
docker logs open-webui - 尝试使用
http://127.0.0.1:8080访问 - 或使用本机局域网 IP 访问(如
http://192.168.xx.xx:8080)
此时可通过浏览器访问:
http://localhost:8080

5. 资源释放
停止容器并清理环境:
docker stop open-webui && docker rm open-webui
如需停止 Ollama:
killall ollama
三、总结
通过本篇部署流程,已完成在 macOS 下基于 Ollama 本地推理服务的配置,并结合 Open WebUI 搭建可视化模型调用平台,适用于本地轻量测试、API 对接与插件开发等场景。
文章来源于互联网:「Mac畅玩AIGC与多模态02」部署篇01 – 在 Mac 上部署 Ollama + Open WebUI
相关推荐: 【生成模型】Stable Diffusion原理+代码
文章目录 前言 一、Latent space 二、AutoEncoder 和 VAE 1.AutoEncoder: 2.VAE: 三、Diffusion扩散模型 1.前向过程 2.逆向过程 四、多模态 cross attention 五、Stable Diff…
5bei.cn大模型教程网










