大模型论文 | 通过负样本挖掘炼出更强Embedding模型
创作时间:
作者:
@小白创作中心
大模型论文 | 通过负样本挖掘炼出更强Embedding模型
引用
51CTO
1.
https://blog.51cto.com/u_15620990/12362010
Conan-Embedding模型通过创新的负样本挖掘策略和跨GPU平衡损失方法,显著提升了嵌入模型的性能。该模型在CMTEB基准测试中取得了72.62的平均性能,超越了之前的最先进模型。
一、研究方法
1、预训练阶段:
- 使用标准数据过滤方法(参考Internlm2)对数据进行预处理。
- 使用bge-large-zh-v1.5模型进行评分,丢弃评分低于0.4的数据。
- 使用InfoNCE损失函数和In-Batch Negative方法进行训练,公式如下:
其中,表示正样本的查询,表示正样本的段落,表示同一批次中其他样本的段落,视为负样本。
2、监督微调阶段:
- 将任务分为检索和语义文本相似性(STS)两类。
- 检索任务使用InfoNCE损失函数,公式如下:
其中,表示查询,表示正样本,表示负样本。
- STS任务使用CoSENT损失函数,公式如下:
其中,是温度参数,是余弦相似度函数。
- 动态硬负样本挖掘:
- 记录每个数据点的当前平均负样本得分。
- 每100次迭代后,如果得分乘以1.15小于初始得分且绝对值小于0.8,则认为该负样本不再具有挑战性,并进行新一轮的硬负样本挖掘。
3、跨GPU平衡损失:
- 在每个前向-损失-反向-更新周期内,以平衡的方式引入每个任务,以获得稳定的搜索空间并最小化单次模型更新方向与全局最优解之间的差异。
- 对于检索任务,确保每个GPU有不同的负样本,同时共享相同的查询和正样本;对于STS任务,增加批次大小以包含更多案例进行比较。公式如下:
其中,是查询和正文本之间的评分函数,通常定义为余弦相似度,是共享查询和正文本的GPU数量,是温度参数,设置为0.8。
二、实验设计
1、数据集:
- 在预训练阶段,收集了0.75亿对文本数据,分为标题-内容对、输入-输出对和问答对等类别。
- 在微调阶段,选择了常见的检索、分类和STS任务的数据集。
2、实现细节:
- 使用BERT作为基础模型,并通过线性层将维度从1024扩展到1792。
- 使用AdamW优化器和学习率1e-5进行预训练,批量大小为8,使用64个Ascend 910B GPU进行训练,总时长为138小时。
- 微调阶段使用相同的优化器参数和学习率,批量大小为4(检索任务)和32(STS任务),使用16个Ascend 910B GPU进行训练,总时长为13小时。
三、结果与分析
1、CMTEB结果:
- Conan-Embedding模型在CMTEB基准测试中的平均性能为72.62,超过了之前的最先进模型。
- 在检索和重排序任务中,Conan-Embedding模型表现出显著的性能提升,表明增加的负样本数量和质量使模型能够看到更具挑战性的负样本,从而增强了其召回能力。
2、消融研究:
- 动态硬负样本挖掘和跨GPU平衡损失显著优于直接使用标准InfoNCE损失和CoSENT损失进行微调的方法。
- Conan-Embedding模型在检索和重排序任务中的表现尤为突出,进一步验证了该方法的有效性。
热门推荐
颈椎痛针灸有效果吗
印度教大神如何在佛教寺院中得以传承?
结肠癌术后1个月有哪些注意事项
1117是什么违章罚200扣一分
被骗后如何走出心理阴影:心理调适与自我康复指南
为什么世界各国把黄金都储存在美国?
两融是什么?两融的利率一般是多少?
创造力的心理源泉和激发机制是什么?
12345热线与信访程序的六大区别:处理方式与效果大不同
尘螨过敏如何护理
加拿大到底冷不冷?--- 各省份气候篇
上市公司报表披露:全面解析信息披露的重要性与内容
肺功能仪揭秘,有氧运动塑造强健肺活量
肠镜,没你想象得那么可怕
如何有效预防功能性腹胀?
熟地黄的泡水喝法详解(熟地黄的功效与适用人群,如何正确泡水喝)
浙江83岁老人开“识字班” 近八年教授百余“大”学生
戴护身符的注意事项与禁忌:全面解析如何正确佩戴以避免不良影响
帮别人遛狗喂猫,年轻人的“梦中情工”能赚多少
肺炎肺部感染一般多久能好
妻子抑郁症闹情绪怎么缓解
省钱秘诀!插混汽车与增程式汽车对比,哪种选择更划算?
打开并查找Outlook数据文件(.pst)中的项目
简单转让费合同范本:必备的法律要点与实务指南
全面解析:为何选择大理作为您的理想旅行目的地
换刹车片注意些什么
心学问心理教育,如何培养孩子的同理心与情感共鸣能力?
美国本科直博申请指南
莹字的解释
体脂率过高的危害及科学减脂指南