问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

OpenAI及Anthropic确认:AI模型发布前提交美国政府进行安全评估

创作时间:
作者:
@小白创作中心

OpenAI及Anthropic确认:AI模型发布前提交美国政府进行安全评估

引用
网易
1.
https://www.163.com/dy/article/JAR4NUU40556703U.html

OpenAI和Anthropic两大AI巨头与美国国家标准技术研究所(NIST)下属的AI安全研究所签署合作协议,将在新AI模型发布前后进行独家安全评估。这一举措标志着AI安全规范进入新阶段,为全球AI发展树立了新的标杆。

人工智能领域的两大巨头——OpenAI和Anthropic,与美国国家标准技术研究所(NIST)下属的AI安全研究所签署了一份具有里程碑意义的合作协议。这份协议预示着AI模型安全性研究、测试与评估工作将迈入一个全新的阶段。

根据协议内容,AI安全研究所将在OpenAI和Anthropic的新AI模型公开发布前后获得独家访问权,以进行深入的安全评估。这一做法与英国AI安全研究所的测试机制相呼应,允许开发者在模型发布前进行严格的安全审查。

"随着这些协议的实施,我们期待与Anthropic和OpenAI展开技术合作,推进AI安全科学的发展。" AI安全研究所所长Elizabeth Kelly在一份新闻稿中表达了对合作的期待,并强调了这一举措对于负责任地引导AI未来的重要性。

此外,AI安全研究所还将与英国AI安全研究所的合作伙伴紧密合作,为OpenAI和Anthropic提供关于模型潜在安全改进的专业反馈。这一跨国合作无疑将加强AI模型的安全性,为行业发展树立新的标杆。

OpenAI和Anthropic均表示,与AI安全研究所的合作将推动美国在制定负责任的AI规则方面发挥领导作用。OpenAI首席战略官Jason Kwon在一封电子邮件中指出,公司全力支持美国AI安全研究所的使命,并期待共同努力,为AI模型的安全最佳实践和标准提供参考。

尽管OpenAI曾面临内部对于安全优先级的质疑,首席执行官Sam Altman已明确表示,公司致力于在发布前向政府机构提供模型进行安全测试和评估。Anthropic也展示了其对安全承诺的行动,已将其Claude 3.5 Sonnet模型提交给英国AI安全研究所进行测试。

美国AI安全研究所是根据拜登政府的AI行政命令而成立的,虽然该命令不具备立法效力,但它为AI模型的安全评估提供了指导。NIST强调,提供模型进行安全评估是自愿的,但将有助于推进AI的安全、可靠和值得信赖的发展。

然而,对于安全这一术语的模糊性以及缺乏明确法规的担忧仍然存在,AI公司必须兑现他们的承诺,确保监管机构能够深入了解AI的快速发展,从而生产出更安全的产品。

这一合作协议不仅是AI安全领域的一大步,也是对未来技术负责任发展的坚定承诺。随着OpenAI和Anthropic与NIST的紧密合作,我们期待AI技术能够在确保安全的前提下,继续推动人类社会的进步。

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号