四大原则引领,我国发布人工智能安全治理框架
四大原则引领,我国发布人工智能安全治理框架
近日,全国网络安全标准化技术委员会发布了《人工智能安全治理框架》1.0版(以下简称《框架》),这一重要文件的出台,为我国人工智能产业的健康发展提供了有力保障。作为首份系统性的人工智能安全治理指南,《框架》不仅提出了包容审慎、确保安全,风险导向、敏捷治理,技管结合、协同应对,开放合作、共治共享等四大治理原则,还详细梳理了人工智能的各类安全风险,并提供了具体的技术应对措施和综合治理方案。
四大原则引领人工智能安全治理
《框架》提出的四大治理原则,体现了我国在人工智能安全治理方面的核心理念:
包容审慎、确保安全:在鼓励人工智能创新发展的同时,也要有效防范化解安全风险。这要求我们在推动技术进步的同时,时刻保持对潜在风险的警惕。
风险导向、敏捷治理:以风险管理的理念指导人工智能安全治理,及时动态调整治理措施,确保治理的精准性和时效性。
技管结合、协同应对:技术手段和管理措施双管齐下,政府、企业、科研机构和社会公众等多元主体协同合作,共同应对人工智能安全挑战。
开放合作、共治共享:积极参与国际人工智能安全治理合作,推动形成全球共识,确保人工智能技术造福全人类。
系统性风险梳理与应对方案
《框架》将人工智能安全风险分为内生安全风险和应用安全风险两大类。内生安全风险包括模型算法安全、数据安全和系统安全等13项风险,应用安全风险则涵盖网络域、现实域、认知域、伦理域等13项风险。针对这些风险,《框架》提出了39项技术应对措施和9项综合治理措施。
例如,在模型算法安全方面,《框架》建议采取提供明确说明、建立并实施安全开发规范等措施。在数据安全方面,重点强调个人信息保护和知识产权保护。在系统安全方面,提出适当公开风险、标识输出内容、加强风险识别检测与防护等措施。
实践案例:以ChatGPT为例
以近期备受关注的ChatGPT为例,其在为企业和个人用户提供便捷服务的同时,也带来了诸多安全风险。例如,用户输入的数据可能包含敏感信息,如果处理不当,容易引发信息泄露。此外,ChatGPT生成的内容可能存在虚假信息、偏见歧视等问题,对社会认知产生不良影响。
根据《框架》的指导,服务提供者需要建立安全防护机制,设置服务边界,筛选判别不真实或有偏见的数据。同时,要加强对用户数据的保护,确保个人信息安全。对于用户而言,需要审慎使用人工智能产品,避免输入敏感信息,提高安全意识。
推动行业健康发展
《框架》的发布,对推动人工智能行业健康发展具有重要意义。它不仅为技术研发者、服务提供者和使用者提供了明确的指导规范,还有助于构建安全、可靠、公平、透明的人工智能技术研发和应用生态。同时,作为一份具有国际视野的治理框架,它也为全球人工智能治理体系的形成贡献了中国智慧。
随着人工智能技术的不断发展,安全治理将是一个持续迭代的过程。《框架》提出的“风险导向、敏捷治理”原则,强调了治理措施的动态调整和持续优化。这要求我们密切关注技术发展动态,及时更新治理策略,确保人工智能技术始终在安全可控的轨道上发展。
结语
《人工智能安全治理框架》1.0版的发布,标志着我国在人工智能安全治理领域迈出了重要一步。它不仅为国内人工智能产业的健康发展提供了有力保障,也为全球人工智能治理体系的构建贡献了中国方案。随着这一框架的深入实施,我们有理由相信,人工智能技术将在安全可控的前提下,为人类社会带来更多的福祉。