问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

通古大模型:华南理工大学推出的古籍大语言模型

创作时间:
作者:
@小白创作中心

通古大模型:华南理工大学推出的古籍大语言模型

引用
1
来源
1.
https://ai-bot.cn/tonggu-llm/

华南理工大学深度学习与视觉计算实验室(SCUT-DLVCLab)推出了一款专注于古籍文言文处理的AI大语言模型——通古大模型。该模型基于百川2-7B-Base进行增量预训练,通过24.1亿古籍语料的无监督训练和400万古籍对话数据的指令微调,实现了古文句读、文白翻译、诗词创作等核心功能。

通古大模型的主要功能

  • 古文句读:通古大模型能自动为古文添加标点符号,解决古籍中常见的断句问题,帮助用户更好地理解古文内容。

  • 文白翻译:模型支持文言文与白话文之间的双向翻译,将晦涩的古文翻译为现代文,同时也可将现代文转换为文言文,方便用户进行古籍阅读和研究。

  • 诗词创作:通古大模型可以生成符合古诗词格律和风格的诗歌,用户可以根据需求提供主题或关键词,模型生成相应的诗词作品。

  • 古籍赏析:模型能对古籍中的经典篇章进行赏析,解读其文学价值、历史背景和文化内涵,辅助用户深入学习古籍。

  • 古籍检索与问答:结合检索增强技术,通古大模型可以快速检索古籍内容,根据用户的问题提供准确的答案,帮助用户高效获取古籍信息。

  • 辅助古籍整理:模型能识别古籍中的文字错误、缺漏等问题,提供修复建议,辅助古籍整理和数字化工作。

通古大模型的技术原理

  • 基础模型架构:通古大模型基于百川2-7B-Base进行增量预训练。百川2-7B-Base是强大的预训练语言模型,为通古大模型提供了基础的语言理解和生成能力。

  • 无监督增量预训练:模型在24.1亿古籍语料上进行无监督增量预训练。使模型学习古籍的语言风格和结构,为后续的古籍处理任务奠定基础。

  • 多阶段指令微调:通古大模型采用了多阶段指令微调技术,提出了冗余度感知微调(RAT)方法。在提升下游任务性能的同时,保留了基座模型的能力。通过指令微调,模型能更好地适应古籍处理的具体任务,如古文翻译、句读等。

  • 检索增强生成(RAG)技术:通古大模型结合了检索增强生成(RAG)技术,减少知识密集型任务中的幻觉问题。核心是将信息检索与文本生成相结合,通过从外部知识库中检索相关信息,作为上下文输入给语言模型,生成更准确、更符合上下文的答案。

通古大模型的项目地址

通古大模型的应用场景

  • 古籍处理与数字化:通古大模型能高效处理古籍文献,支持文白翻译、句读标点和古籍检索等功能。辅助古籍整理工作,通过智能识别和修复古籍中的文字错误,提升古籍数字化的效率。

  • 教育支持:教师可以用来生成教案、教学PPT,设计课堂互动环节。对于学生,模型能提供文言文翻译、成语解释和诗词创作等功能,帮助他们更好地理解古文。

  • 文化传承与普及:通古大模型通过降低古籍阅读难度,让更多人接触和理解中华传统文化。

  • 学术研究:通古大模型为古籍研究提供了强大的技术支持,能帮助学者快速检索和分析古籍内容。

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号