解锁DeepSeek潜能:Docker+Ollama打造本地大模型部署新范式
创作时间:
作者:
@小白创作中心
解锁DeepSeek潜能:Docker+Ollama打造本地大模型部署新范式
引用
CSDN
1.
https://blog.csdn.net/weixin_53269650/article/details/146457200
一、引言
1、什么是Docker
Docker:就像一个“打包好的App”
想象一下,你写了一个很棒的程序,在自己的电脑上运行得很好。但当你把它发给别人,可能会遇到各种问题:
- “这个软件需要 Python 3.8,但我只有 Python 3.6!”
- “我没有你用的那个库,安装失败了!”
- “你的程序要跑在 Linux,我的电脑是 Windows!”
💡Docker 的作用:它就像一个“打包好的 App”,把你的软件、依赖、环境、系统配置等全部封装到一个“容器”里,别人拿到这个容器,就能直接运行,而不用关心它内部的细节。
🚀 把 Docker 想象成“集装箱”
传统运输 vs. 集装箱运输
以前(传统部署):
- 货物(程序)需要不同的包装方式(运行环境)
- 货物可能损坏(环境不兼容)
- 装卸麻烦(程序迁移难)
有了 Docker(容器部署):
- 货物装进标准化集装箱(Docker 容器)
- 不管运到哪里,集装箱里东西不变(程序环境一致)
- 码头和船只可以直接装卸(轻松部署到不同系统)
Docker让软件像“集装箱”一样标准化、可移植、易部署!🚢
2、什么是Ollama
Ollama 是一个本地运行大语言模型(LLM)的工具,它可以让你在自己的电脑上直接运行 AI 模型,而不需要连接云端服务器。
💡简单来说:Ollama 让你像运行普通软件一样,轻松在本地使用 ChatGPT、Llama、Mistral、Gemma 等大语言模型。
🚀 Ollama 的核心特点
- 本地运行🏠
- 你不需要联网,也不用担心隐私问题,所有计算都在你的电脑上完成。
- 支持多种开源模型📚
- 可以运行Llama 3、Mistral、Gemma、Code Llama等不同的大模型。
- 易于安装和使用🔧
- 只需要几条命令,就能下载并运行 AI 模型。
- 轻量化优化⚡
- 适配 Mac(Apple Silicon)、Linux 和 Windows,支持 GPU 加速,让模型运行更快。
- 离线推理🔒
- 适合不想依赖 OpenAI API 或其他云端 AI 服务的用户。
二、准备工作
1、操作系统
这里我们使用的操作系统为Centos 7.9,配置为4核8G,大家也可以使用其他的Linux发行版本,或者使用Windows。
2、镜像准备
如果已经安装了Docker,可以提前准备好镜像,ollama/ollama,镜像比较大,拉取会耗一些时间
三、安装
1、安装Docker
1.关闭防火墙
systemctl stop firewalld && systemctl disabled firewalld
2.关闭SELinux
setenforce 0
3.更换yum源
rm -f /etc/yum.repos.d/*
curl -o /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo
yum clean all && yum makecache
4.安装依赖项
yum install -y yum-utils device-mapper-persistent-data lvm2
- 添加Docker源
yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
6.安装Docker
yum install docker-ce -y
7.添加Docker镜像加速器
vim /etc/docker/daemon.json
# 添加如下内容
{
"registry-mirrors": [
"https://docker.m.daocloud.io",
"https://noohub.ru",
"https://huecker.io",
"https://dockerhub.timeweb.cloud",
"https://0c105db5188026850f80c001def654a0.mirror.swr.myhuaweicloud.com",
"https://5tqw56kt.mirror.aliyuncs.com",
"https://docker.1panel.live",
"http://mirrors.ustc.edu.cn/",
"http://mirror.azure.cn/",
"https://hub.rat.dev/",
"https://docker.ckyl.me/",
"https://docker.chenby.cn",
"https://docker.hpcloud.cloud",
"https://docker.m.daocloud.io"
]
}
8.启动Docker
systemctl start docker
2、启动Ollama
1.启动Ollama容器
docker run -itd -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
- docker run 运行一个新的 Docker 容器
- -itd 组合多个选项:
- ✅-i(保持标准输入)
- ✅-t(分配终端)
- ✅-d(后台运行容器)
- -v ollama:/root/.ollama 挂载数据卷,把 ollama 这个 Docker 数据卷 绑定到容器的 /root/.ollama 目录,确保数据持久化(如下载的模型不会丢失)。
- -p 11434:11434 端口映射,把 宿主机(本机)的 11434 端口 映射到 容器 内部的 11434 端口,这样宿主机可以通过 http://localhost:11434 访问 Ollama 服务。
- --name ollama 指定 容器名称 为 ollama,方便管理和启动。
- ollama/ollama 使用的 Docker 镜像,这里是 官方的 Ollama 镜像。
如果是使用GPU运行,则用下面的命令启动
docker run -itd --name ollama --gpus=all -v ollama:/root/.ollama -p 11434:11434 ollama/ollama
2.查看Ollama容器
docker ps
3、拉取Deepseek大模型
1.进入到容器中
docker exec -it ollama /bin/bash
2.拉取模型
ollama pull deepseek-r1:7b
在官网中,有许多Deepseek的模型,这里主要是演示,所以拉取了一个较小的模型
官网地址:deepseek-r1
3.查看模型
ollama list
4、启动Deepseek
ollama run deepseek-r1:7b
热门推荐
细数给大气“画像”的气象监测家族
我国到底适不适合“免费医疗”?
白头发越拔越多?长白头发可能是缺这3种营养!4招教你留住黑发
揭秘“树花生”:从网络谣言到农业科技新突破
承接矿山业务合同模板:法律适用与实务操作指南
Vue实现数据实时更新的四种方法
冰柜压缩机能修吗?维修选择与保养指南
含有对苯二胺的染发剂真的不安全,会引发癌症吗?
首套房和二套房契税有何不同?首套房和二套房贷款的区别
武汉地铁票价太贵?官方最新回应
锉刀是什么?锉刀类型、锉刀作用和锉刀使用方法
《在整个网络和环境支柱中推进零信任成熟度》解析
零信任身份和访问管理是什么
转型之路依旧在继续 盘点东风汽车的55年发展历程
生物显微镜:从基础原理到应用实践的全面指南
社交恐惧症是如何形成的
《把握气候风险与机遇——机构投资者如何应对高碳行业转型》报告发布
马尔济斯犬的特点是什么
宠物小型犬有哪些种类?选择时应注意什么?
一碗汤药里的学问:中药煎煮,您煎对了吗?
MATLAB FDATool工具箱入门教程
如何分析股票成交量的变化?这种变化对投资决策有何影响?
海洋管道水下堵漏大考,救援能力大揭秘!
根据肤色选首饰:冷皮暖皮避坑指南
“行·知·行”家校社共育体:聚焦乡村“悦”成长实现教育共富梦
麦芽糖醇是什么?天然、功效与安全综合解析
探讨现代社会中的文化多样性与和谐共处
福州西湖公园:福建园林明珠的千年风韵
精神洁癖怎么治疗
给个人房贷算笔明白账:四种还款方式因人而异