人工智能(AI):个人资料保障模范框架
人工智能(AI):个人资料保障模范框架
随着ChatGPT用户数量的快速增长,以及全球机构对这项技术的争相使用,人工智能(AI)带来的机遇与风险并存。虽然AI为人类带来了诸多便利,但同时也引发了关于个人资料保护的担忧。本文将探讨全球范围内针对AI的监管态势,特别是香港在AI监管方面的具体做法。
自个人资料私隐专员公署(私隐专员公署)于2021年出版《开发及使用人工智能道德标准指引》(《2021年AI指引》)以来,AI一直备受关注。ChatGPT的用户数量快速增长,而世界各地的机构都争相使用这项技术。香港生产力促进局于2023年10月发表的一项调查数据显示,预计到2024年底,约五成的本地企业将使用AI。
虽然AI为我们带来了不少机遇,但正如史蒂芬·霍金所言,“成功创造AI可能是人类文明史上最重大的事件。但如果人类不学会如何避免风险,它可能是人类文明史最后的事件”。事实上,AI涉及不同的风险,而隐私是最主要的风险之一。世界各地政府已注意到AI带来的问题,并意识到需要在创新与个人资料隐私保障等议题之间取得平衡的情况下针对性地监管AI以及建立稳健的监管框架。
全球AI监管态势
为了回应是否及如何监管AI的争议,有些政府制订了针对AI的新法规,而有些则依赖现行的法律。
在欧洲,全球首个旨在规管各行各业使用AI的全面法例——《人工智能法案》于今年8月1日起生效。该监管框架以风险为本的原则,根据AI系统可能产生的风险的强度和范围进行分类,对风险较高的AI系统实施更严格的规定,并禁止某些被认为构成不可接受风险的做法(例如,在工作场所或教育机构使用AI系统进行情感识别)。
放眼国家,内地也推出了一系列针对AI的法规和管理办法,包括2023年8月生效的《生成式人工智能服务管理暂行办法》,以确保在提供和使用生成式AI服务时,个人隐私等权利不会被侵犯,以及2023年10月颁布的《全球人工智能治理倡议》,强调AI发展与安全并重。
至于美国,拜登政府也颁布了一项行政命令,其中订立了对构成严重国家安全风险的基础模型开发者的披露要求,以确保安全、可靠及可信地发展AI。
相比之下,英国在监管AI方面一直侧重于促进创新,但值得留意的是,新政府近期表示有意推出监管开发强大AI模型的法案。
香港:私隐专员公署推出有关AI的领先指引
科技发展日新月异,香港又怎样应对呢?虽然香港没有针对AI的法例,但《个人资料(私隐)条例》(《私隐条例》)作为“科技中立”的原则性法例,同样适用于AI。不论收集和使用个人资料所采用的技术的类型及发展程度,资料使用者均受《私隐条例》条款的规管,当中包括《私隐条例》中“保障资料原则”。
为了更深入了解AI对个人资料隐私的影响,以及评估机构的资料保障措施是否符合《私隐条例》的规定,私隐专员公署于2023年8月至2024年2月期间向28间本地机构进行了循规审查。这次审查未发现违反《私隐条例》相关规定的情况。
除了进行循规审查,私隐专员公署于2021年秋季出版了《2021年AI指引》,以促进AI在香港的健康发展和使用。作为香港最早推出的AI监管文件之一,《2021年AI指引》建议机构恪守三项目数据管理价值(对持份者尊重、互惠和公平)及七项AI道德原则(问责、人为监督、透明度与可解释性、数据隐私、公平、有益的AI、以及可靠、稳健和安全)。这些价值及原则是国际上广泛接受的规范,旨在协助机构以保障隐私的方式开发和使用AI。
为体现国家颁布的《全球人工智能治理倡议》及强调AI安全作为国家安全主要领域之一的重要性,私隐专员公署于2024年6月出版了《人工智能(AI):个人资料保障模范框架》(《模范框架》),当中包括一系列向采购、实施及使用AI系统的机构提供的有关保障个人资料隐私的建议及最佳行事常规。《模范框架》将有助于孕育AI在香港的健康发展,促进香港成为创新科技枢纽,并推动香港以至大湾区的数字经济发展。
《模范框架》建基于一般业务流程,并涵盖以下四个范畴的建议及最佳行事常规:(i) 制定AI策略及管治架构;(ii) 进行风险评估及人为监督;(iii) 实行AI模型的定制与实施及管理AI系统;及(iv) 促进与持份者的沟通及交流。
(i) 制定AI策略及管治架构
要做到负责任且合乎道德标准地采购、实施和使用AI,高级管理层的支持至关重要。因此,《模范框架》建议机构建立内部的AI管治策略,以引领相关过程。AI管治策略应包含机构层面的AI策略,就机构使用AI系统的目的是提供指引。在采购第三方AI系统时,《模范框架》建议机构在供应商管理流程中考虑管治因素,例如向准AI供应商提出有关隐私和安全的主要责任及道德规定,以及期望它们达到的技术性和管治方面的国际标准。特别是,视乎机构向AI供应商提供的数据及其对开发和定制AI模型的指示,机构应考虑有关《私隐条例》的合规事宜,例如资料使用者和资料处理者(如有)在《私隐条例》下各自的职责、跨境转移资料的合法性,以及数据安全的考量。
AI管治策略成功与否,取决于执行者。就此,由一个跨领域及由行政人员领导的AI管治委员会来引领AI策略的实施是不可或缺的。然而,员工也扮演着重要的角色,他们应接受与AI相关的个人资料隐私培训,以培养尊重AI道德原则的隐私保障文化。
(ii) 进行风险评估及人为监督
其次,《模范框架》建议机构进行全面的风险评估,有系统地识别、分析及评估AI生命周期涉及的风险,包括隐私风险,以便它们采取相应的风险缓解措施,包括决定人为监督的程度。
此类风险评估要考虑的因素包括用来定制和使用AI的数据的准许用途、所用数据的数量和敏感程度、数据保安(尤其是在机构系统之间转移个人资料)、所涉及数据的准确性和可靠性,以及现有风险缓解措施是否足够。一旦识别出相关风险,机构就应采用风险为本的方法来管理其AI系统。根据采用的AI系统的风险,机构应订定在决策及结果输出过程中的人为监督程度。一般而言,风险越高的AI系统,须有较高程度的人为监督。
(iii) 实行AI模型的定制与实施及管理AI系统
在AI整个生命周期,AI系统的定制、实施和管理涉及大量个人资料的处理。因此,机构需要遵守《私隐条例》的相关规定。在这一方面,《模范框架》向机构建议可采取的各类措施。一般而言,虽然机构需考虑有否收集足够的数据,以确保结果是准确和不存在偏见,机构亦应尽量减少AI模型定制和使用中涉及的个人资料。
此外,在使用定制或已有的AI模型前应对其模型进行严格的验证和测试,并在采用后定期作出微调,以确保系统保持稳健和可靠。当AI系统整合至机构的内部服务器或第三方提供的云端服务器时,机构应考虑此类整合的合规性及对数据安全的影响。鉴于AI通常涉及大量数据,以及频繁地采用第三方软件组件和代码,机构应采取数据保安措施来保护AI系统和相关数据,以免遭受攻击及外泄数据。《模范框架》亦建议机构定期重新进行风险评估、审计AI系统,以及微调AI模型,以确保这些模型保持可靠且风险可控。此外,鉴于AI系统的复杂性,系统容易出错,可能会成为外部攻击的目标。因此,《模范框架》建议机构考虑制定AI事故应急计划,以监控和应对AI事故。
(iv) 促进与持份者的沟通及交流
《模范框架》的最后部分建议机构在使用AI时,奉行有关向持份者保持透明度和可解释性的道德原则。机构要实现这个目标,其中一种方法是在可行的情况下,特别是在可能对个别用户造成重大影响时,就AI的决策和输出结果作出解释,从而获得持份者的信任。机构亦应留意,资料当事人有权利根据《私隐条例》提交查阅资料及更正资料的要求。最后,机构应考虑鼓励持份者作出反馈,然后将反馈用于调整AI系统。
采用《模范框架》可以协助机构以符合《私隐条例》及其保障资料原则的方式实施和使用AI。机构也可考虑把《模范框架》或相关部分纳入其AI政策的一部分。
国际层面
AI带来的风险是全球共同面对的议题。尽管尚未有全球统一的监管AI法规,各个司法管辖区一直努力就AI的影响尽早达成共识,以应对相关风险。
例如,在今年3月,联合国大会一致通过首项有关推广“安全、可靠、可信”AI系统的全球决议。于2023年11月,欧洲联盟及其他28个国家(包括中国、美国和英国)签署了《布雷切利宣言》(Bletchley Declaration),达成了对前沿AI风险的共识。在该《宣言》的基础上,微软和Meta等业界领导者亦表示会以负责任的方式开发和应用其前沿AI模型。
与此同时,私隐专员公署亦致力于对全球有效治理AI的工作作出贡献。今年1月,公署与香港大学合办了一个关于AI的国际会议,让来自世界各地的学者、AI专家和其他持份者聚首一堂,探讨AI对个人资料保障的影响。作为环球隐私议会辖下人工智能的道德与数据保障工作分组的成员,公署参与发起了《生成式AI系统决议》和《AI与雇佣事宜决议》,两项决议皆于2023年10月举行的环球隐私议会年度会议上获得通过。两项决议分别呼吁AI开发者、提供者和采用者建立负责任及可信的生成式AI系统,并呼吁机构为雇佣事宜开发或使用AI系统时,采取“贯穿隐私设计”的方式。
总结
展望未来,AI无疑将成为香港及大湾区数字经济发展的重要推动力。当我们拥抱AI时代的来临,负责任地采购、实施和使用AI将会是管理层工作的重要一环。机构作为资料使用者,应订定全面的AI策略,并遵从《私隐条例》的规定及恪守AI道德原则。
在我们推动科技发展的同时,建立稳健的AI系统和确保数据安全,亦同样重要!