问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

Ubuntu平台Docker部署Open-WebUI及Ollama模型配置指南

创作时间:
作者:
@小白创作中心

Ubuntu平台Docker部署Open-WebUI及Ollama模型配置指南

引用
CSDN
1.
https://m.blog.csdn.net/hknaruto/article/details/145666582

本文将介绍如何在Ubuntu平台上使用Docker部署Open-WebUI,并配置Ollama模型。

前提条件

确保Ollama已正确部署在本地,并通过内网地址与Open-WebUI通信。

调整Ollama服务配置

编辑ollama.service文件,修改监听地址:

[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/snap/bin"
Environment="OLLAMA_HOST=:11434"

[Install]
WantedBy=default.target

安装步骤

配置Docker Compose

创建docker-compose.yml文件,内容如下:

version: '3.8'
services:
  open-webui:
    image: ghcr.nju.edu.cn/open-webui/open-webui:main
    container_name: open-webui
    ports:
- "3000:8080"
    environment:
- OLLAMA_BASE_URL=http://192.168.1.3:11434
    volumes:
- open-webui_data:/app/backend/data    
    restart: always

volumes:
  open-webui_data:

启动服务

在终端中运行以下命令启动服务:

docker-compose up -d

使用说明

  1. 打开浏览器,访问http://localhost:3000,等待页面加载完成。
  2. 登录后,点击左下角用户名,进入管理员面板。
  3. 在设置中关闭OpenAI API(如果不需要使用)。
  4. 切换到模型配置页面,配置提示词并选择是否公开。

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号