Ollama部署DeepSeek-R1 70B模型完整指南
创作时间:
作者:
@小白创作中心
Ollama部署DeepSeek-R1 70B模型完整指南
引用
CSDN
1.
https://m.blog.csdn.net/Code1994/article/details/145494672
Ollama是一个开源的LLM部署框架,支持多种大模型的快速部署和推理。DeepSeek-R1 70B是一个基于Llama架构的700亿参数量的开源大语言模型,通过Q5_K_M量化处理后体积压缩至49GB,非常适合在各种设备上运行。本文将详细介绍如何在Ollama平台上部署DeepSeek-R1 70B模型。
一、模型下载与准备
1. 获取GGUF格式模型文件
通过ModelScope平台下载量化后的模型文件(推荐Q5_K_M中等量化级别):
pip install modelscope
modelscope download --model unsloth/DeepSeek-R1-Distill-Llama-70B-GGUF DeepSeek-R1-Distill-Llama-70B-Q5_K_M.gguf --local_dir /DeepSeek-R1-Distill-Llama-70B-GGUF
技术说明:GGUF(GPT-Generated Unified Format)是专为LLM设计的跨平台格式,支持CPU/GPU混合推理,特别适合在苹果芯片设备或纯CPU环境运行。Q5_K_M量化在保持94%精度的同时,将模型体积压缩至49GB。
二、Ollama环境配置
1. 安装Ollama推理框架
参考官网ollama/ollama:
curl -fsSL https://ollama.com/install.sh | sudo sh
2. 配置远程访问(可选)
如需通过其他设备访问,需修改服务配置:
sudo nano /etc/systemd/system/ollama.service
在[Service]
部分添加:
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"
刷新服务配置:
sudo systemctl daemon-reload
sudo systemctl restart ollama
三、模型配置文件编写
创建Modelfile
配置文件:
# 这里填入gguf文件路径
FROM /home/DeepSeek-R1-Distill-Llama-70B-GGUF/DeepSeek-R1-Distill-Llama-70B-Q5_K_M.gguf
# 以下为模型模板配置
TEMPLATE """{{- if .System }}{{ .System }}{{ end }}
{{- range $i, $_ := .Messages }}
{{- $last := eq (len (slice $.Messages $i)) 1}}
{{- if eq .Role "user" }}<|User|>{{ .Content }}
{{- else if eq .Role "assistant" }}<|Assistant|>{{ .Content }}{{- if not $last }}<|end▁of▁sentence|>{{- end }}
{{- end }}
{{- if and $last (ne .Role "assistant") }}<|Assistant|>{{- end }}
{{- end }}"""
PARAMETER stop "<|begin▁of▁sentence|>"
PARAMETER stop "<|end▁of▁sentence|>"
PARAMETER stop "<|User|>"
PARAMETER stop "<|Assistant|>"
PARAMETER num_ctx 12800
参数解析:
stop
:设置对话终止符num_ctx
:扩展上下文窗口至12800 tokens
四、模型加载与运行
1. 创建Ollama模型实例
ollama create DeepSeek-R1-Distill-Llama-70B-Q5_K_M -f /home/DeepSeek-R1-Distill-Llama-70B-GGUF/Modelfile
2. 验证模型列表
ollama list
# 预期输出
NAME ID SIZE MODIFIED
DeepSeek-R1-Distill-Llama-70B-Q5_K_M:latest dd7ae729f6fc 49 GB 46 minutes ago
3. 启动模型服务
ollama run DeepSeek-R1-Distill-Llama-70B-Q5_K_M:latest
成功运行后将进入交互式命令行界面。
五、远程访问验证
访问http://{服务器IP}:11434/
,出现以下界面即表示服务正常运行:
Ollama服务状态
六、高级应用场景
现在可通过以下方式接入模型:
- Open WebUI:搭建可视化聊天界面
- API集成:通过RESTful API对接应用程序
- LangChain:构建自动化AI工作流
热门推荐
员工微信群争吵被解雇,法院:未通知工会程序违法
从基层员工到实习生,竞业限制滥用引发争议
红星斑鱼最佳烹饪指南:清蒸还是红烧?
红东星斑价格飙升,你家餐桌受影响了吗?
包酸菜馅饺子,牢记“2放2不放”,放错不鲜香有怪味,别不当回事
江苏寒假26天:规范培训与保障休息并重
面包车座椅调节全攻略:从电动到手动,安全舒适两不误
三道堰:成功打造“古蜀水韵亲子研学小镇” 受游客追捧
创业者重返朝九晚五:6个理由说明为什么这可能是更好的选择
贵州茅台除息:投资者如何理性看待?
股权除息日:高收益机会还是高风险陷阱?
除权除息后,热门股票还能火多久?
大阪城最古老炮楼千貫橹:400年历史见证日本城防智慧
从丰臣到德川:大阪城的兴衰与日本战国史
游览大阪城:历史城堡、樱花美景与交通指南
1980年5元人民币身价几何?单张13元起,百连号最高1500元
春拍“红工厂”破8万,第一套人民币收藏价值几何?
双十一购机必备:手机电量管理全攻略
手机电量管理:告别低电量焦虑
劣质仿品引发争议,甄嬛传原版服装设计揭秘
0.8元/公里起:汽车托运四种主流方式详解
就业压力下成人职业教育分化发展,OMO+AI成转型新方向
上海探索职教新模式,对接新兴产业人才需求
AR技术赋能职业培训:提升效率、降低成本、优化体验
网上办证诈骗防范指南:识别套路与应对措施全攻略
《甄嬛传》主创澳门重聚:13年后再唱《凤凰于飞》
蒋欣13年后完整看《甄嬛传》,直言最爱“滴血认亲”
《甄嬛传》14年:三句台词背后的宫廷智慧与现代共鸣
从沟通到文化:构建高绩效电销团队的六大管理要点
从沟通到文化:构建高绩效电销团队的六大管理要点