问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

史上最简单open-webui安装方式

创作时间:
作者:
@小白创作中心

史上最简单open-webui安装方式

引用
CSDN
1.
https://m.blog.csdn.net/xianfianpan/article/details/143441456

本文将详细介绍open-webui的多种安装方式,包括使用Python和Docker的安装步骤,并提供了具体的命令行操作指导。

一、安装python3.11

这里需要注意,不要用python3.11以上的版本,否则不兼容

  1. 到python官网下载python3.11
    链接:https://www.python.org/ftp/python/3.11.9/python-3.11.9-amd64.exe
  2. 双击安装包,开始安装,注意勾选[Add python 3.11 to Path]选项!!
  3. 选择Customize install选项,建议把安装路径改为其他盘(注意!安装路径中不能有中文)

二、测试python

  1. 按下win+r打开运行框,输入cmd,回车
  2. 在命令提示符中输入python
  3. 自动显示:
  4. 输入exit()退出python
  5. 输入pip list,显示:

三、pip换源

在cmd中输入:

pip config set global.index-url https://mirrors.aliyun.com/pypi/simple

四、安装open-webui

  1. 打开cmd,输入:
pip install open-webui

等待安装完成~~
2. 等待过程结束后,输入:

open-webui serve

不出意外的话,就要出意外了:

ERROR: can not connect to "http://hf-com.co" is your computer offline?

五、解决can not connet问题

  1. 出现以上问题是因为国内访问国外网站信号不好
  2. 解决方案:
    打开cmd,输入:
pip install open-webui==0.2.0
  1. 安装完成后,打开cmd输入:
open-webui serve

自动显示:
安装成功后,出现Open-Webui界面:
打开Open-Webui网页

六、升级open-webui

打开cmd,输入:

pip install open-webui --upgrade

七、运行ollama+open-webui

  1. 打开cmd,输入:
ollama serve
  1. 打开另一个cmd,输入:
open-webui serve
  1. 访问链接:
    open-webui
    网站截图:

    登陆界面截图:

八、docker安装open-webui

  1. 如果您的计算机上安装了Ollama,可以使用以下命令:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.nju.edu.cn/open-webui/open-webui:main
  1. 如果Ollama在另一台服务器上,请使用以下命令:
    连接到另一台服务器上的Ollama时,请将OLLAMA_BASE_URL更改为服务器的URL:
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always  ghcr.nju.edu.cn/open-webui/open-webui:main

要使用Nvidia GPU支持运行Open WebUI,请使用以下命令:

docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always  ghcr.nju.edu.cn/open-webui/open-webui:cuda
  1. 带有捆绑Ollama支持的Open WebUI安装
    此安装方法使用一个单独的容器映像,将Open WebUI与Ollama捆绑在一起,通过单个命令实现简化设置。根据您的硬件设置选择适当的命令:
    使用GPU支持:通过运行以下命令利用GPU资源
docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always  ghcr.nju.edu.cn/open-webui/open-webui:ollama
  1. 如果内存>16GB,推荐使用docker,如果内存<=16GB,推荐使用python+open-webui
© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号