使用Ollama配置本地微调的gguf模型文件
创作时间:
作者:
@小白创作中心
使用Ollama配置本地微调的gguf模型文件
引用
CSDN
1.
https://blog.csdn.net/weixin_43217276/article/details/140790668
本文将详细介绍如何使用Ollama配置本地微调的gguf模型文件。通过在Ubuntu系统上安装Ollama、准备模型文件以及加载模型,用户可以快速部署和使用大语言模型。
一、安装Ollama
在Linux系统上,可以使用以下命令安装Ollama:
curl -fsSL https://ollama.com/install.sh | sh
如果上述命令无法正常运行,可以访问Ollama的官方安装页面:https://ollama.com/install.sh,手动下载并运行安装脚本。
安装完成后,可以尝试运行一个开源模型测试是否成功:
ollama run llama3.1
在对话框中输入/help
查看可用指令,输入/bye
退出对话模式。
二、准备工作
首先需要创建一个文件夹,并在其中创建.modelfile
文件和模型文件,建议将两者命名为相同名称以避免混淆:
├── MyModel/
├── testmodel.gguf
└── testmodel.modelfile
接下来编辑.modelfile
文件,以下是一个示例配置:
FROM testmodel.gguf
# 设置temperature为1,更高的数值回答更加发散,更低的数值回答更加保守
PARAMETER temperature 0.7
TEMPLATE """{{ if .System }}<|start_header_id|>system<|end_header_id|>
{{ .System }}<|eot_id|>{{ end }}{{ if .Prompt }}<|start_header_id|>user<|end_header_id|>
{{ .Prompt }}<|eot_id|>{{ end }}<|start_header_id|>assistant<|end_header_id|>
{{ .Response }}<|eot_id|>"""
PARAMETER stop "<|start_header_id|>"
PARAMETER stop "<|end_header_id|>"
PARAMETER stop "<|eot_id|>"
PARAMETER stop "<|reserved_special_token"
# 设置tokens限制
PARAMETER num_ctx 4096
PARAMETER repeat_penalty 1.5
PARAMETER repeat_last_n 1024
# 设置系统级别的提示词
SYSTEM 现在你是xxxx有限公司矿建领域的个人助理,我是一个矿山建设领域的工程师,你要帮我解决我的专业性问题。
MESSAGE user 你好
MESSAGE assistant 我在,我是xxxx有限公司的矿建电子个人助理,请问有什么我可以帮助您的嘛?
MESSAGE user 人工地层冻结主要采用机械式压缩机制冷技术吗?
MESSAGE assistant 是的,人工地层冻结主要采用机械式压缩机制冷技术。
MESSAGE user 解释人工地层冻结的主要制冷方法。
以下是几个关键参数的说明:
1. 导入模型
FROM testmodel.gguf
这是必须的且必须放在第一行。
2. 回答发散度
PARAMETER temperature 0.7
数值越大,回答越有创造性,默认值为0.8。
3. 回答方式
TEMPLATE """{{ if .System }}<|start_header_id|>system<|end_header_id|>
{{ .System }}<|eot_id|>{{ end }}{{ if .Prompt }}<|start_header_id|>user<|end_header_id|>
{{ .Prompt }}<|eot_id|>{{ end }}<|start_header_id|>assistant<|end_header_id|>
{{ .Response }}<|eot_id|>"""
这个参数会让模型像ChatGPT一样以"引入-分点-总结"的方式回答。
4. 停止回答条件
PARAMETER stop "<|start_header_id|>"
PARAMETER stop "<|end_header_id|>"
PARAMETER stop "<|eot_id|>"
PARAMETER stop "<|reserved_special_token"
遇到这些特殊标记时停止回答。
5. 防止重复
PARAMETER num_ctx 4096
PARAMETER repeat_penalty 1.5
PARAMETER repeat_last_n 1024
num_ctx
参数限制回答的token数量。repeat_penalty
设置重复惩罚强度,默认值为1.1。repeat_last_n
设置模型回溯距离以防止重复,默认值为64。
6. 系统级别提示词
SYSTEM 现在你是xxxx有限公司矿建领域的个人助理,我是一个矿山建设领域的工程师,你要帮我解决我的专业性问题。
MESSAGE user 你好
MESSAGE assistant 我在,我是xxxx有限公司的矿建电子个人助理,请问有什么我可以帮助您的嘛?
MESSAGE user 人工地层冻结主要采用机械式压缩机制冷技术吗?
MESSAGE assistant 是的,人工地层冻结主要采用机械式压缩机制冷技术。
MESSAGE user 解释人工地层冻结的主要制冷方法。
可以根据需要设置系统级别的提示词,模型会按照类似的方式回答问题。
三、加载模型
在之前创建的MyModel
文件夹下,使用以下命令加载模型:
ollama create mymodelname -f ./testmodel.modelfile
其中mymodelname
是自定义的模型名称。
运行模型:
ollama run mymodelname
这样就完成了模型的部署和运行。对于更多详细信息,可以参考Ollama的官方文档。
热门推荐
一夫一妻制哺乳动物:探究其独特的社会结构和行为特点
北京朝阳区:空间资源巧利用,“三大设计”让课间更热闹 | 课间一刻
历史上真正的王重阳:文武双全的全真教创始人
满五不唯一的税费计算方法及应交税种解析
杯子有异味怎么办?多种实用去除方法介绍
英语专业学生就业前景分析报告
半导体基础:晶圆、晶粒与芯片的区别
石头和人都由基本的原子构成,为什么人类有思想而石头没有?
卡介菌多糖核酸注射液的功效与作用
贵州遵义,为什么还有“重庆”味儿?
夏天可以种植杏树吗?它的寓意与价值解析
东海岛旅游区门票价格、交通方式、潮汐情况及景点推荐一览
甲流进入高发期,医生提醒:“中招后”不要大意,牢记2吃2不吃!
大创如何团队分工
古希腊文明:从克里特到亚历山大
AI提高内容生产效率,用户数据作用大——开启内容生产全新时代
《庆余年》中提到的“三省六部制”到底是个啥?
第一次去瑞士:探索阿尔卑斯山下的童话王国
《龙之家族》:伊耿二世的真实故事,成王败寇的悲惨一生
运用KPI与360度反馈法在健康管理行业中对健康管理师进行综合绩效评估
用Excel管理家庭预算
十一代思域车型详解:纯燃油 vs 油电混动,三厢 vs 两厢,哪个更值得选择?
如何研判成交量的变化——投资之道
中世纪时期的西方科学:从黑暗到黎明
苹果醋真的可以减肥吗?
等老了再“养”膝盖就晚了!提醒:保护膝关节,从这4种方法开始
什么是投资者适当性管理?
缺席审判的后果
干细胞治疗听力障碍:未来听觉重建的重要方向
玄参的功效作用功能主治是什么,有什么功效作用好处?