问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

印度智库:国家主导的大型语言模型是网络安全的关键

创作时间:
作者:
@小白创作中心

印度智库:国家主导的大型语言模型是网络安全的关键

引用
澎湃
1.
https://m.thepaper.cn/newsDetail_forward_28552615

随着人工智能技术的快速发展,大型语言模型(LLMs)在网络安全领域的应用潜力巨大。然而,如何确保这些模型的安全性和可靠性,避免其被恶意利用,成为各国政府和研究机构关注的焦点。印度智库专家Pranoy Jainendran认为,国家主导下的大型语言模型能够在网络安全方面更好应对威胁。

标签:#大型语言模型/科学技术/网络安全

观点:国家主导下的大型语言模型能够在网络安全方面更好应对威胁。

背景:大型语言模型(LLMs)在网络安全领域的应用潜力巨大。

大型语言模型具备高级理解能力和一般推理技能,因此应用范围广泛。网络安全领域也不例外,Nvidia等科技巨头都在积极探索LLM在未来网络安全领域发挥积极作用的可能性,如漏洞检测、代码生成、程序修复、威胁情报、异常检测和辅助攻击。如果不对LLM加以管理并将其纳入安全工作中,其能力就会被恶意方利用。

内容:国家行为体能够在LLM的安全性能上发挥重要作用。

1.民族国家在加强网络安全方面发挥重要作用,但网络空间的无国界性和国际合作的必要性使这一任务复杂化。网络空间的无国界性要求网络安全发展模式转向跨国合作,通过国际或多边组织来实现新技术的引入和网络安全的提升。然而,国家利益的优先性和地区差异使这种合作充满挑战,且建立中立的国际组织复杂而困难。因此,由主权国家来处理网络安全问题可能更为有效。例如,一个国际组织尝试在成员国间实施单一的网络安全LLM,但各国面临的威胁不同,优先事项可能冲突,导致效果不佳。相比之下,各国独立实施LLM可能会更有效,避免了组织性偏斜。

2.国家主导的LLM可以通过专业化提高其在网络安全领域的可靠性,但也面临数据敏感性和资源需求的挑战。LLM在广泛数据集上训练的特质使其具通用性,但在专业领域如网络安全中效果有限。为提高其专业性,需要选择基础模型、微调并评估效率,这需创建特定领域数据集。向私营或外国实体披露敏感数据可能破坏网络安全,因此最好使用开源基础模型并进行微调。尽管闭源模型如ChatGPT和Gemini初期表现优异,但其专有性质可能限制其在特定环境中的有效微调,影响整体功效。


图源:ORF(印度观察家研究基金会),网址:https://www.orfonline.org/expert-speak/the-necessity-of-state-led-initiatives-for-large-language-models-in-cybersecurity

建议:应该从完善机构与法规两方面落实LLM的安全保障。

1.建立专门的国家机构负责网络安全领域LLM的数据采集和更新。这种机构应确保全面收集与所有网络威胁相关的数据,包括损失情况和应对措施,并定期更新,以促进无缝的信息收集和资源分配,使LLM保持稳健。

2.制定并实施专门针对LLM在网络安全应用的细化法规。目前的人工智能法规如欧盟的《人工智能法案》和美国的框架是初步步骤,还需更具体的监督措施。进一步的措施应涵盖LLM的开发、应用及持续监测,以确保其在网络安全中的有效性和安全性。

来源:Pranoy Jainendran,《国家主导的网络安全大型语言模型倡议的必要性》,印度观察家研究基金会,2024年7月4日,https://www.orfonline.org/expert-speak/the-necessity-of-state-led-initiatives-for-large-language-models-in-cybersecurity

整理者:周韫,北京大学区域与国别研究院全球智多星团队成员

本文原文来自澎湃新闻

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号