OpenAI及Anthropic确认:AI模型发布前提交美国政府进行安全评估
OpenAI及Anthropic确认:AI模型发布前提交美国政府进行安全评估
OpenAI和Anthropic两大AI巨头与美国国家标准技术研究所(NIST)下属的AI安全研究所签署合作协议,将在新AI模型发布前后进行独家安全评估。这一举措标志着AI安全规范进入新阶段,为全球AI发展树立了新的标杆。
人工智能领域的两大巨头——OpenAI和Anthropic,与美国国家标准技术研究所(NIST)下属的AI安全研究所签署了一份具有里程碑意义的合作协议。这份协议预示着AI模型安全性研究、测试与评估工作将迈入一个全新的阶段。
根据协议内容,AI安全研究所将在OpenAI和Anthropic的新AI模型公开发布前后获得独家访问权,以进行深入的安全评估。这一做法与英国AI安全研究所的测试机制相呼应,允许开发者在模型发布前进行严格的安全审查。
"随着这些协议的实施,我们期待与Anthropic和OpenAI展开技术合作,推进AI安全科学的发展。" AI安全研究所所长Elizabeth Kelly在一份新闻稿中表达了对合作的期待,并强调了这一举措对于负责任地引导AI未来的重要性。
此外,AI安全研究所还将与英国AI安全研究所的合作伙伴紧密合作,为OpenAI和Anthropic提供关于模型潜在安全改进的专业反馈。这一跨国合作无疑将加强AI模型的安全性,为行业发展树立新的标杆。
OpenAI和Anthropic均表示,与AI安全研究所的合作将推动美国在制定负责任的AI规则方面发挥领导作用。OpenAI首席战略官Jason Kwon在一封电子邮件中指出,公司全力支持美国AI安全研究所的使命,并期待共同努力,为AI模型的安全最佳实践和标准提供参考。
尽管OpenAI曾面临内部对于安全优先级的质疑,首席执行官Sam Altman已明确表示,公司致力于在发布前向政府机构提供模型进行安全测试和评估。Anthropic也展示了其对安全承诺的行动,已将其Claude 3.5 Sonnet模型提交给英国AI安全研究所进行测试。
美国AI安全研究所是根据拜登政府的AI行政命令而成立的,虽然该命令不具备立法效力,但它为AI模型的安全评估提供了指导。NIST强调,提供模型进行安全评估是自愿的,但将有助于推进AI的安全、可靠和值得信赖的发展。
然而,对于安全这一术语的模糊性以及缺乏明确法规的担忧仍然存在,AI公司必须兑现他们的承诺,确保监管机构能够深入了解AI的快速发展,从而生产出更安全的产品。
这一合作协议不仅是AI安全领域的一大步,也是对未来技术负责任发展的坚定承诺。随着OpenAI和Anthropic与NIST的紧密合作,我们期待AI技术能够在确保安全的前提下,继续推动人类社会的进步。