在现代应用程序开发中,Docker 提供了一个极其方便的环境来快速部署和管理应用。本文将介绍如何在 Ubuntu 22.04 系统上使用 Docker 部署 Ollama,并搭配 Open Web UI 进行使用。Ollama 是一个用于构建和管理机器学习模型的工具,而 Open Web UI 是一个友好的用户界面,可供用户与模型进行交互。
前期准备
首先,确保你的 Ubuntu 22.04 系统已安装 Docker。可以通过以下命令检查是否已安装 Docker:
docker --version
如果未安装 Docker,可以使用以下命令进行安装:
sudo apt update
sudo apt install docker.io
安装完成后,启动 Docker 服务并设置为开机自启:
sudo systemctl start docker
sudo systemctl enable docker
同时,为了方便使用 Docker 命令,可以将当前用户添加到 docker
组中:
sudo usermod -aG docker $USER
执行完这一命令后,记得退出当前终端并重新登录。
部署 Ollama
接下来,我们将使用 Docker 部署 Ollama。为了启动 Ollama,需要创建一个 Dockerfile。首先,创建一个新的目录并进入:
mkdir ollama && cd ollama
然后使用文本编辑器创建 Dockerfile
:
nano Dockerfile
以下是一个基本的 Dockerfile 示例,用于构建 Ollama:
# 使用基于 Ubuntu 的基础镜像
FROM ubuntu:22.04
# 更新和安装必要的依赖
RUN apt-get update && apt-get install -y \
python3 \
python3-pip \
git
# 安装 Ollama
RUN pip3 install ollama
# 设置工作目录
WORKDIR /app
# 容器启动时运行 Ollama
CMD ["ollama", "serve"]
接下来,使用以下命令构建 Docker 镜像:
docker build -t ollama .
构建完成后,运行 Ollama 容器:
docker run -d --name ollama_container -p 8080:8080 ollama
部署 Open Web UI
接下来,我们部署 Open Web UI。可以在 Docker Hub 上查找 Open Web UI 的相关镜像,通常它们会比手动构建要简单许多。我们将在这里使用一个假设的镜像名 open_webui
。
首先,运行 Open Web UI 容器,指向 Ollama 的 API:
docker run -d --name open_webui_container -p 8081:8080 \
--link ollama_container:ollama \
open_webui --ollama-url http://ollama:8080
这里,--link
参数让 Open Web UI 容器能够与 Ollama 容器进行内部通信。
访问界面
在这一步,我们可以通过浏览器访问 Open Web UI。在浏览器中输入以下网址:
http://<你的服务器_IP>:8081
如果一切顺利,你应该能够看到 Open Web UI 的界面,并可以在该界面上与 Ollama 提供的模型进行交互。
总结
通过以上步骤,我们成功在 Ubuntu 22.04 上利用 Docker 部署了 Ollama,并通过 Open Web UI 提供了用户与模型交互的平台。这种方式不仅简化了环境配置,还极大增强了应用的可移植性。Docker 的使用为开发者提供了更高效的工具来管理复杂的应用和服务。希望通过本文的介绍,能够帮助你快速搭建起自己的机器学习模型服务环境。