部署你的专属私有AI大模型
创作时间:
作者:
@小白创作中心
部署你的专属私有AI大模型
引用
CSDN
1.
https://blog.csdn.net/qq_33906471/article/details/138955021
本文将指导您在CentOS 7.9系统上部署一个专属的私有AI大模型。通过使用Docker和Docker-Compose,整个部署过程将大大简化。请确保您的系统已经满足以下条件:CentOS 7.9操作系统、网络连接正常。
准备Docker环境
安装Docker
yum install -y yum-utils device-mapper-persistent-data lvm2
yum-config-manager --add-repo https://download.docker.com/linux/centos/docker-ce.repo
yum -y install docker-ce docker-ce-cli containerd.io
启动Docker
systemctl start docker
systemctl enable docker
准备Docker-Compose
安装Docker Compose时可能会遇到网络问题,可以尝试开启VPN或联系作者获取帮助。
curl -L "https://github.com/docker/compose/releases/download/1.24.1/docker-compose-$(uname -s)-$(uname -m)" -o /usr/local/bin/docker-compose
chmod +x /usr/local/bin/docker-compose
ln -s /usr/local/bin/docker-compose /usr/bin/docker-compose
docker-compose --version
准备源代码
git clone https://github.com/open-webui/open-webui.git
[root@bogon ~]# git clone https://github.com/open-webui/open-webui.git
Cloning into 'open-webui'...
remote: Enumerating objects: 22440, done.
remote: Counting objects: 100% (517/517), done.
remote: Compressing objects: 100% (183/183), done.
remote: Total 22440 (delta 301), reused 460 (delta 272), pack-reused 21923
Receiving objects: 100% (22440/22440), 48.51 MiB | 1.70 MiB/s, done.
Resolving deltas: 100% (14679/14679), done.
启动服务
修改docker-compose.yaml文件
version: '3'
services:
ollama:
volumes:
- ollama:/root/.ollama
container_name: ollama
tty: true
restart: unless-stopped
image: ollama/ollama:${OLLAMA_DOCKER_TAG-latest}
open-webui:
image: ghcr.io/open-webui/open-webui:${WEBUI_DOCKER_TAG-main}
container_name: open-webui
volumes:
- open-webui:/app/backend/data
depends_on:
- ollama
ports:
- ${OPEN_WEBUI_PORT-3000}:8080
environment:
- 'OLLAMA_BASE_URL=http://ollama:11434'
- 'WEBUI_SECRET_KEY='
extra_hosts:
- host.docker.internal:host-gateway
restart: unless-stopped
volumes:
ollama: {}
open-webui: {}
启动
[root@bogon ~]# cd open-webui/
[root@bogon open-webui]# docker-compose up -d --build
# 启动完成以后查询容器状态
[root@bogon open-webui]# docker-compose ps
Name Command State Ports
---------------------------------------------------------------------------------
ollama /bin/ollama serve Up 11434/tcp
open-webui bash start.sh Up 0.0.0.0:3000->8080/tcp,:::3000->8080/tcp
测试使用
访问
打开浏览器访问服务器的IP加上3000端口:
http://192.168.207.131:3000
注册账号
选择模型
ollama里面有很多模型可以使用,但是需要我们下载,经过测试觉得比较好用的一个是openchat(当然也有其他的,大家可以多测试测试,选择一个好用的,这里面我们就用openchat为例)。
下载模型
下载完成以后会有>>>提示符输入/bye按回车即可
[root@bogon open-webui]# docker exec -it ollama ollama run openchat
pulling manifest
pulling 1cecc26325a1... 100% ▕█████████████████████▏ 4.1 GB
pulling 43070e2d4e53... 100% ▕█████████████████████▏ 11 KB
pulling d68706c17530... 100% ▕█████████████████████▏ 98 B
pulling 415f0f6b43dd... 100% ▕█████████████████████▏ 65 B
pulling 278996753456... 100% ▕█████████████████████▏ 483 B
verifying sha256 digest
writing manifest
removing any unused layers
success
>>> /bye
刷新浏览器,选择模型
接下来你就可以尽情体验了
热门推荐
每个司机都应该懂汽车灯语,闪一下闪两下闪三下,分别是什么意思
优秀的作文有哪些特征?解密高分作文的六大秘诀
教育部官方推荐:3-6岁幼儿阅读书目,附详细书单!
水星水瓶座家庭如何
警惕脑梗死预兆,关爱老年人健康
放了心脏支架的可以做胃镜吗
从构思到实现:原画设计的全流程技巧分享
年轻人婚恋压力报告:恋爱可以,但不一定结婚?
鲁迅:论 “ 他妈的 ”
聚氨酯材料:多功能材料助力行业革新
Chrome扩展程序无法正常工作?保姆级教程+原因讲解
值得期待!2025年抗战胜利80周年阅兵:可能会有哪些新武器亮相?
长期服用他汀,预防用药风险需要定期复查,多久查一次?
如何查台风快报数据库
消博会四年进阶成长
谢璐伊:地铁脉络下的广州|花地新苗·一张图读懂广州城
什么是消博会?
无人驾驶车辆发生事故该由谁担责?律师解读
任务委派 – 团队中高效分配职责的技巧
如何做好团队里角色定位
音箱电源连接要点剖析:如何选择合适电源线并确保安全使用
探秘酱油之谜:生抽与老抽的奥秘
眼球的结构
微信账号被封原因分析及避免再次触犯的策略
2025年中考总分是多少?
什么叫五个为什么?
关中八大怪:陕西关中地区的独特民俗风情
美的集团赴港上市获备案通知书,“二次交表”构建“A+H”双平台
棉花成熟期及生长条件分析(从播种到收割)
如何提高种子的发芽率 哪些因素影响出芽率