问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

用免费硅基流动API阅读英文论文

创作时间:
作者:
@小白创作中心

用免费硅基流动API阅读英文论文

引用
CSDN
1.
https://blog.csdn.net/qq_27879083/article/details/141326336

前言

终于,期待已久的 Zotero 7 正式发布了。虽然之前一直在使用测试版,但考虑到稳定性问题,一直没有分享相关教程。现在正式版发布后,Zotero 的各种功能和插件将逐渐稳定,是时候来分享一下使用 Zotero 过程中的一些经验了。

翻译插件安装

要在 Zotero 7 中使用翻译功能,需要借助第三方插件。如果需要安装的插件较多,建议使用一个专门用于管理插件的插件:

syt2/zotero-addons:这是一个可以直接在 Zotero 中安装插件的工具。

下载后,按照以下步骤安装:

  1. 打开 Zotero,点击菜单栏中的“工具” -> “插件”
  2. 进入插件管理页面(如下图所示)
  3. 按照图示完成插件的安装
  4. 再次点击“工具” -> “插件市场”
  5. 在插件市场中找到“Translate for Zotero”,左键点击安装

翻译插件的使用

选中需要翻译的内容时,插件会自动进行翻译。同时,在右侧的状态栏也会显示翻译结果。

但是,默认的翻译 API 效果并不理想。一方面,Google 等工具在中国大陆使用受限;另一方面,传统翻译工具对于一些专业术语的翻译效果不佳。例如,“LLM”经常被错误地翻译为“法学硕士”,长难句的翻译也不够流畅。

将大模型接入 Zotero

作为学生党,自然想要寻找免费的 API 服务。这里推荐使用硅基流动的 API 服务,它提供了 Qwen2、GLM-4 等最新的开源模型,并且可以免费使用。10B 以内的模型对于翻译任务来说已经足够。

API 密钥获取

  1. 注册硅基流动账号
  2. 进入 API 管理页面
  3. 点击“创建新API密钥”

Zotero 配置

  1. 打开 Zotero,点击菜单栏中的“编辑” -> “设置”
  2. 选择“翻译”选项卡
  3. 在“翻译服务”处选择“ChatGPT”
  4. 将上一步获取的 API 密钥复制到密钥栏中
  5. 点击配置按钮,进行进一步配置

需要配置的主要参数如下:

  • 模型接口:https://api.siliconflow.cn/v1/chat/completions
  • 模型:推荐使用Qwen/Qwen2-7B-Instruct

效果对比

为了验证效果,我们找了一篇论文进行对比测试:

原文:

Large language models (LLMs) have a wealth of knowledge that allows them to excel in various Natural Language Processing (NLP) tasks. Current research focuses on enhancing their performance within their existing knowledge. Despite their vast knowledge, LLMs are still limited by the amount of information they can accommodate and comprehend. Therefore, the ability to understand their own limitations on the unknows, referred to as self-knowledge, is of paramount importance. This study aims to evaluate LLMs’ self-knowledge by assessing their ability to identify unanswerable or unknowable questions. We introduce an automated methodology to detect uncertainty in the responses of these models, providing a novel measure of their self-knowledge. We further introduce a unique dataset, SelfAware, consisting of unanswerable questions from five diverse categories and their answerable counterparts. Our extensive analysis, involving 20 LLMs including GPT-3, InstructGPT, and LLaMA, discovering an intrinsic capacity for self-knowledge within these models. Moreover, we demonstrate that in-context learning and instruction tuning can further enhance this self-knowledge. Despite this promising insight, our findings also highlight a considerable gap between the capabilities of these models and human proficiency in recognizing the limits of their knowledge.

Google 翻译结果:

大型语言模型 (LLM) 拥有丰富的知识,使他们能够在各种自然语言处理 (NLP) 任务中表现出色。当前的研究重点是在现有知识范围内提高他们的表现。尽管法学硕士知识渊博,但他们所能容纳和理解的信息量仍然受到限制。因此,了解自己对未知事物的局限性的能力(称为自我认识)至关重要。本研究旨在通过评估法学硕士识别无法回答或不可知问题的能力来评估他们的自我认识。我们引入了一种自动化方法来检测这些模型响应中的不确定性,从而提供了一种新的自我认知测量方法。我们进一步介绍了一个独特的数据集 SelfAware,它由来自五个不同类别的无法回答的问题及其可回答的对应问题组成。我们进行了广泛的分析,涉及 20 名法学硕士,包括 GPT-3、InstructGPT 和 LLaMA,发现这些模型具有内在的自我认识能力。此外,我们证明情境学习和指令调整可以进一步增强这种自我认识。尽管这一见解很有希望,但我们的研究结果也凸显了这些模型的能力与人类认识其知识局限性的能力之间存在相当大的差距。

问题: Google 翻译将“LLM”错误地翻译为“法学硕士”。

Qwen/Qwen2-7B-Instruct 翻译结果:

大型语言模型(LLMs)拥有的丰富知识使得它们在自然语言处理(NLP)任务中表现出色。当前的研究致力于提升它们在现有知识范围内的性能。尽管它们拥有大量知识,但LLMs仍然受限于能够接纳和理解的信息量。因此,了解他们对未知领域的局限性,即所谓的“自我认知”,是至关重要的。本研究旨在通过评估LLMs识别无法回答或无法知晓问题的能力,来评估它们的自我认知程度。我们提出了一种自动化方法来检测这些模型在回应中的不确定性,提供了一种衡量其自我认知的新指标。我们还引入了一个独特的数据集,名为SelfAware,包括五个不同类别的无法回答的问题及其可回答的对应问题。我们的广泛分析涵盖了20个LLM模型,包括GPT-3、InstructGPT和LLaMA,发现了这些模型内在的自我认知能力。此外,我们展示了上下文学习和指令调参可以进一步提升它们的自我认知能力。尽管这一发现充满希望,但我们的研究结果也揭示了这些模型与人类在识别自身知识边界上的能力之间的显著差距。

优势: 使用大模型翻译没有出现“法学硕士”的错误,翻译结果更加准确流畅。

通过对比可以看出,使用大模型进行翻译在专业术语和长难句的处理上具有明显优势。

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号