DeepSeek被多国禁用:AI开源技术的双刃剑
DeepSeek被多国禁用:AI开源技术的双刃剑
2025年2月4日,澳大利亚政府宣布禁止在所有政府设备上使用或安装中国人工智能初创公司DeepSeek的产品、应用程序和网络服务,原因是担心存在安全风险。这一决定引发了全球对人工智能技术发展和安全问题的广泛关注。
技术突破引发全球关注
DeepSeek的AI模型在过去两周内引起了国际社会的广泛关注,其模型的能力和效率令硅谷和投资者印象深刻。包括OpenAI创始人山姆·奥特曼在内的企业高管都表示,他们对DeepSeek印象深刻,并欢迎这种竞争。但他们也呼吁美国应利用这一契机,对人工智能基础设施和政策投入更多支持。
DeepSeek的开发人员选择了开源人工智能模型的技术路线,并将如何构建模型的过程通过论文的形式公开,提供了极大的透明度,得到业内的称赞。更重要的是,DeepSeek的这种开放性与OpenAI将其专有的AI模型“隐藏在黑匣子”的封闭策略形成了鲜明对比。后者因其不透明性被行业诟病已久。
面临审查与禁用
尽管DeepSeek的技术创新备受瞩目,但其也面临着多个国家的审查和禁用措施。此前,意大利等欧洲国家已对DeepSeek采取了类似的限制使用措施。比利时政府隐私监管机构发言人2月3日表示,比利时数据保护机构确认收到有关DeepSeek的投诉,但未就是否已对DeepSeek启动调查作出评论。
对于支持开源的人士而言,DeepSeek的成功将推动更多人拥抱开源系统。此前,AI开源模型的典型代表是Meta的Llama模型,DeepSeek的成功也受益于Llama模型的开源。Meta首席人工智能科学家Yann LeCun就表示,DeepSeek的成功代表了开源人工智能模型的胜利。“开源模型正在超越专有模型。”他在LinkedIn上的一篇帖子中写道,“DeepSeek从开放研究和开源中获益匪浅,但他们也提出了新的想法,并在其他人的工作基础上构建了这些想法。因为他们的工作是公开的和开源的,所以每个人都可以从中获益。这就是开放研究和开源的力量。”
开源模式的深远影响
DeepSeek的开源模式正在改变全球AI技术的发展格局。近日,在瑞典举行的一场GoWest风投会议上,人工智能初创公司NetMind首席商务官Seena Rejal公开表示:“DeepSeek表明开源人工智能不再只是一项非商业研究计划,而是一种可行的、可扩展的封闭模型替代方案。”
Rejal认为,这会对OpenAI的GPT模型构成挑战。包括NetMind在内的一些欧洲AI初创公司已经表示,他们已经将系统从GPT迁移至DeepSeek模型中,从而节省大量的费用,并称“用户并未发现有任何差别。”
然而,开源人工智能在有利于技术创新的同时,也有易于受到网络攻击的缺点。Rejal表示,开源AI模型的引入可能会提高企业需要考虑的网络安全风险,包括软件供应链攻击、提示越狱和试图引入偏见或有害输出的所谓“数据中毒”事件。
已有网络安全公司发现DeepSeek的AI模型存在漏洞。思科AI安全研究团队上周发布的一项研究表明,研究人员使用了“算法越狱技术”,让DeepSeek的R1模型对流行的HarmBench一系列有害提示做出肯定的回应,“攻击成功率为100%”。
思科研究人员Paul Kassianik和Amin Karbasi写道:“DeepSeek R1的训练预算仅为其他前沿模型提供商在开发模型上花费的预算的一小部分。然而安全性可能是它付出的代价。”
但也有技术专家强调,安全性的问题是所有开源系统面临的共同问题,而并非仅针对DeepSeek才有的。“DeepSeek和其他生成式AI平台一样,对企业和个人来说都是一把‘双刃剑’。”研究公司Proofpoint网络安全策略师Matt Cooke在一份报告中称,“DeepSeek的模型还相对较新,需要时间来了解这项技术,并提出更安全的解决方案。”
结语
DeepSeek的崛起不仅体现了中国在人工智能领域的技术实力,更展示了开源模式对全球AI发展的深远影响。虽然面临安全审查和禁用措施,但DeepSeek的技术突破和开放精神已经在全球范围内产生了重要影响。对于整个AI行业来说,如何在技术创新和安全可控之间找到平衡,将是未来发展的关键课题。