LEAF:通过事实核查增强学习与评估以提高大型语言模型的事实性
LEAF:通过事实核查增强学习与评估以提高大型语言模型的事实性
在自然语言处理(NLP)领域,大型语言模型(LLMs)虽然展现出强大的文本生成能力,但在知识密集型领域(如医疗保健)中,常常面临事实准确性不足的问题。为了解决这一问题,研究者们提出了LEAF(Learning and Evaluation Augmented by Fact-Checking)方法,通过事实核查来增强LLMs的事实可靠性。本文将详细介绍LEAF的工作原理、实验结果及其在医疗问答任务中的应用。
引言 🤖
在自然语言处理(NLP)的广阔天空中,大型语言模型(LLMs)如同璀璨明星,闪耀着令人惊叹的光芒,展现出强大的文本生成能力。然而,正如所有的明星都有其阴暗面,LLMs在处理知识密集型领域(例如医疗保健)时,常常面临事实准确性不足的挑战。这一问题的严重性不容小觑,尤其是在医疗诊断和治疗建议等敏感情境中,错误的信息可能导致严重后果。因此,如何提高LLMs生成内容的真实性,成为了研究者们亟需解决的重要课题。
为此,研究者们提出了LEAF(Learning and Evaluation Augmented by Fact-Checking),一种新颖的方法,旨在通过事实核查来增强LLMs的事实可靠性。LEAF采用双重策略,旨在提高医疗问答(QA)任务中模型的响应准确性。首先,通过“先核查后检索生成”(Fact-Check-Then-RAG)策略,LEAF通过整合事实核查的结果来指导检索过程,而无需更新模型参数。其次,通过“自我训练学习事实核查”的策略,LEAF通过监督微调(SFT)基于核查过的响应,或者使用简单偏好优化(SimPO)作为排序机制,更新LLM的参数。
🌟 主要贡献
- 事实核查后检索生成(Fact-Check-Then-RAG) :研究者提出了一种新颖的检索增强生成(RAG)方法,其中检索过程由事实核查的结果指导。这种方法确保检索到的信息能够具体增强模型初始输出的事实准确性,从而生成更具上下文相关性和准确性的响应。
- 通过自我训练学习事实核查 :研究者探讨了使用经过事实核查的响应进行自我训练的机制,以提高事实性。此过程包括对通过事实核查的多个响应进行生成和评估,并在通过核查的响应上进行模型微调。
方法论 🛠️
LEAF工作流如图1所示,旨在通过结合严格的事实核查过程,系统性地提高LLM生成响应的事实准确性。在传统的LLM工作流中,模型生成对提示的响应,提供推理或解释,并直接交付最终答案。然而,这种方法并不内在地确保生成内容的事实正确性。
事实核查机制
研究者利用搜索增强的事实性评估器(SAFE)来评估LLM生成响应的事实准确性。SAFE的设计包括将响应分解为单独的事实,并通过迭代的搜索查询动态验证这些事实,从而确保评估的准确性和及时性。这种适应性增强了系统的零成本、可控性和有效性,尤其是在医疗领域。
事实核查评分的计算
为了评估生成响应的事实准确性,研究者采用了句子级别的事实核查方法。每个响应被分解为独立的句子,并对每个句子进行独立验证。响应的事实核查评分通过支持句子的数量与响应中句子的总数之比来计算,公式为:
L
E
A
F
=
支持的句子数量
响应中的句子总数
LEAF = \frac{\text{支持的句子数量}}{\text{响应中的句子总数}}
结果与讨论 📊
在实验中,研究者对Llama 3 70B Instruct模型在多个医疗数据集上的响应进行了评估。通过LEAF的事实核查,模型在各个数据集上的准确性显著提高。表1展示了原始准确性与通过LEAF过滤后的准确性对比,结果表明,LEAF有效提升了模型生成内容的准确性。
事实核查后检索生成的效果
研究者对Llama 3 70B Instruct模型的FC-RAG方法进行的实验显示,该方法在所有数据集上均表现出更高的准确性。通过结合事实核查结果,FC-RAG方法能够有效减少知识缺口,提高LLM生成的响应准确性。
自我训练的优势
使用经过事实核查的响应进行自我训练(SFT)显著改善了模型在所有数据集上的准确性。表3展示了与原始模型的比较,结果表明,LEAF的SFT方法在提高准确性方面表现出色。
结论 🎉
本研究探讨了事实核查机制在提高LLM事实能力方面的潜力,尤其是在医疗问答任务中。通过与原始模型和微调模型的比较,研究者证明了通过结合事实核查信息来增强生成响应的上下文相关性和准确性。LEAF提供了一种强有力的框架,以提高LLMs在需要信息准确性的应用中的可靠性。
参考文献 📚
- Hieu Tran et al. “LEAF: Learning and Evaluation Augmented by Fact-Checking to Improve Factualness in Large Language Models.”
- Ji et al. 2023. “Challenges in Maintaining Factual Accuracy.”
- Zellers et al. 2019. “The Risks of Generating Plausible but Incorrect Content.”
- Wang et al. 2023. “Factcheck-GPT: An End-to-End Solution for Annotating Factuality.”
- Meng et al. 2024. “Simple Preference Optimization for Enhancing Response Quality.”