问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

人工智能武器化:網絡安全新領域

创作时间:
作者:
@小白创作中心

人工智能武器化:網絡安全新領域

引用
1
来源
1.
https://www.hkcert.org/tc/blog/weaponisation-of-ai-the-new-frontier-in-cybersecurity

人工智能武器化代表了网络威胁的新开端,带来了复杂的挑战,需要创新和主动的防御策略。本文将探讨人工智能武器化的各个方向、其对网络安全的影响以及减轻这些新兴风险所需的措施。

人工智能武器化的概念

人工智能武器化是指利用人工智能技术来展开网络攻击。犯罪组织甚至个人都可以借助这些技术来进行复杂的网络攻击。人工智能武器化可以自动化和增强传统的网络攻击,使它们更有效率、适应性更强及难以检测;亦可发展出新的攻击方式,防不胜防。并且攻击方式可以归纳为以下三个方向:

  1. 人工智能主导网络攻击:人工智能将会主导网络攻击,人工智能会被当作为一种攻击工具,部分攻击环节将会由人工智能来完成。
  2. 人工智能衍生的漏洞:人工智能都会出错,如果过分依赖人工智能,而不去验证,反而会衍生其他的资讯保安漏洞。
  3. 毒害及欺诈人工智能模型:透过毒害或欺诈人工智能模型,影响人工智能判断,引发其他资讯保安风险。

人工智能主导攻击网络的例子

  • 犯罪分子的生成式人工智能:网络地下市场充斥犯罪分子的生成式人工智能,例如 WormGPT。相比我们日常使用的生成式人工智能例如 ChatGPT,WormGPT 接近没有任何限制。只要合适的指令,WormGPT 就能回应任何提问。有犯罪分子就利用 WormGPT 来创建高度逼真的钓鱼邮件,模仿合法的通讯。

另外,日本警方亦首次发现有不法分子使用生成式人工智能制作恶意软件,能对电脑资料加密且勒索赎金。

来源 :Cybercriminals can’t agree on GPTs

  • 恶意软件开发:人工智能可以协助设计能够适应不同环境并具备逃避检测的恶意软件 - 变形恶意软件 (Polymorphic Malwares)。变形恶意软件是指恶意软件可以定期「变形」,定期改变程式码,以破坏其识别特征来逃避防毒软件检测。例如,人工智能驱动的恶意软件可以动态改变其程式码,使传统防毒软件更难识别。

来源 :Chatting Our Way Into Creating a Polymorphic Malware

  • 深伪技术(Deepfake):深伪技术可以产生逼真的音音频及视讯内容,用于散布虚假信息、冒充他人身份和勒索。这项技术可能会阻碍我们对网络信息的判断,并且造成混乱。2024 年 5 月,骗徒假扮一家跨国公司的首席财务官,通过 WhatsApp 接触其中一名职员。之后,骗徒利用深伪技术冒充了该公司的首席财务官与职员进行会议,并要求转账。最终,公司被骗取 400 万港元。2024 年 3 月,HKCERT 过往亦分析过深伪的保安风险,提及过深伪技术、过往发生的真实例子,以及预防的建议。

来源:HK01

人工智能衍生的漏洞的例子

大家使用 ChatGPT 时,都会发现 ChatGPT 并非百分百准确。一项外国研究,邀请了两批软件开发人员去回答 5 条程式相关问题。其中一批开发人员可以使用 AI 去协助作答。最后发现,无使用 AI 作答的开发人员无论准确度同安全程度都会较高。另一项发现,部分使用 AI 作答的开发人员更倾向相信 AI 提供的程式码,认为 AI 生成的程式码更安全更可靠。若果直接使用 AI 生成的程式码,而无进行任何验证,会带来其他安全漏洞。

毒害及欺诈人工智能模型的例子

有研究透过干扰人工智能,导致人工智能输出错误结果。有研究人透过带著特别设计的眼镜,干扰人脸识别系统,令系统将他误认为其他人。例如研究人 (图片b) 带上特制眼镜 (图片a),系统会解译为一位女士 (图片c)。若果这套人脸识别系统应用在办公室门禁系统,又或者电脑登入系统,将会带来保安风险。早在 2022 年,ChatGPT 还未火热时,HKCERT 亦出刊过一篇探讨人工智能与网络保安的关系,文章讨论人工智能的基本原理、几种常用毒害人工智能的手法,以及应用人工智能模型时一些保安建议。

来源 :Accessorize to a Crime: Real and Stealthy Attacks on State-of-the-Art Face Recognition

对网络安全的影响

人工智能武器化对网络安全有深远的影响,挑战了现有的防御机制,需要我们在应对网络威胁时进行思维上的改变。

  • 增加网络攻击复杂性
    人工智能相关的攻击本质上比传统的网络攻击更加复杂。它们可以适应不同的环境,从错误中学习,优化策略。这使得它们更难被发现。例如,人工智能可以比人类黑客更有效地识别和利用零日漏洞,这对网络安全人员构成了重大挑战。

  • 速度和规模
    人工智能可以实现网络攻击的自动化和规模化,以人类黑客不可能达到的速度和数量进行攻击。这种能力允许对多个目标进行广泛且同时的攻击,压倒传统的防御系统。

  • 信任危机
    使用人工智能创作深伪作品和其他形式的合成信息削弱我们对网络信息的信任。这可能会给个人、企业和政府带来严重后果,因为验证信息的真实性变得越来越困难。错误信息和虚假信息的传播可能导致社会动荡、经济损失和声誉受损。

防范人工智能武器化的建议

应对人工智能武器化带来的威胁需要采取多方面的方法,将技术创新、政策制定和国际合作结合起来。

  • 加强身份认证机制
    增强身份验证机制可以帮助减轻深伪和其他形式的冒充行为所带来的风险。多重身份验证 (MFA)、生物识别验证和基于区块链的身份管理系统可以提供额外的保护,确保只有授权个人才能存取敏感信息和系统。

  • 技术措施
    企业应建立和参与威胁情报共享平台,及时交换有关人工智能相关攻击的情报,提前预防和应对潜在威胁。另外,部署先进的监控和分析工具,持续监控网络活动并识别异常行为,及早发现和阻止人工智能相关的攻击。

  • 政策法规
    政府和国际组织必须制定并执行政策和法规,以监管人工智能在网络安全中的使用。2024 年 5 月,欧盟正式通过全球第一条人工智能法案,为人工智能制定了一个全面的准则,亦是全球人工智能使用的里程碑。香港个人资料隐私专员公署亦于 2024 年 6 月发布《人工智能 (AI):个人资料保障模范框架》。《模范框架》向采购、实施及使用任何种类的 AI 系统的机构,就保障个人资料隐私方面提供有关AI管治的建议及最佳行事常規,旨在协助相关机构遵从《私隐條例》的规定,及恪守私隱專員公署在 2021 年出版的《開發及使用人工智能道德標準指引》中倡議的三項數據管理價值和七項 AI 道德原則。

  • 教育与培训
    加强对人工智能武器化风险的认识,特别是在企业和政府机构中。通过定期的培训和研讨会,使员工了解最新的威胁和防御措施。

人工智能防御网络攻击

人工智能亦已积极应用于网络安全范畴上。跟据世界經濟論壇一篇文章,部分企業已經應用人工智能在網絡安全,例如 Google 利用人工智能加快對網絡威脅的偵測及應變、Meta 就利用人工智能檢查內容是否由人工智能生成等等。HKCERT 早前亦推出兩項運用 AI 技術的網絡保安措施,一項是針對日益嚴重的網絡釣魚攻擊,開發以 AI 主動偵測和分辨釣魚網址,如發現會立即執行清理行動,減少市民面對釣魚攻擊的機會;另一項新措施是推出網絡保安風險警報,利用 AI 分析和評估針對本港的網絡釣魚、惡意軟件和殭屍網絡攻擊的趨勢,繼而向大眾發布警報及防禦措施,儘早提醒市民防範。

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号