问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

专家齐聚探讨生成式人工智能下的个人信息保护:既要发展也要安全

创作时间:
作者:
@小白创作中心

专家齐聚探讨生成式人工智能下的个人信息保护:既要发展也要安全

引用
1
来源
1.
https://www.isc.org.cn/article/20179472929386496.html

3月22日,中国互联网协会在北京召开了第269期蓝海沙龙,主题聚焦“生成式人工智能领域下的个人信息侵害风险及应对策略”。来自学术界、企业界和研究机构的多位专家齐聚一堂,共同探讨这一前沿话题。

中国政法大学副校长、数据法治研究院院长时建中,中国科学院信息工程研究所正高级工程师戴娇,中国社科院法学所研究员、科技与法研究中心主任杨延超,北京邮电大学电子工程学院教授吴帆,中国移动研究院博士袁博,中国信息通信研究院互联网法律研究中心高级工程师赵淑钰,华为云EI解决方案专家张瑞锋,360集团法务部资深律师王乐,阿里巴巴集团公共事务总监肖尧,淘天集团政府事务总监铁木尔夫等专家参加了会议。会议由中国互联网协会副秘书长裴玮主持。

裴玮在致辞中表示,生成式人工智能为教育、娱乐、医疗保健和科学研究等多个领域提供了变革潜力,激发起前所未有的关注度和创造力浪潮。但在具有广阔应用前景与发展未来的同时,生成式人工智能也对既有的个人信息保护体系形成了巨大冲击与威胁。生成式人工智能通常需要大量数据进行训练,随着生成式人工智能的广泛使用,个人数据的收集、存储和处理将变得非常普遍。在未形成有效的数据管理和个人信息保护机制的情况下,生成式人工智能服务将缺乏透明性和可控性,个人信息保护的落地需要更加细化的技术、机制与规则设计。本次研讨会结合人工智能的具体落地应用案例,重点关注生成式人工智能时代如何提升个人信息保护技术手段的有效性,讨论如何健全监管空缺与补充机制、平衡安全与发展等问题,旨在为政府部门的监管和治理提供思路和建议,更好地推动生成式人工智能行业的建设和健康发展。

企业实践与技术应用

华为云EI解决方案专家张瑞锋介绍了华为云大模型的三层架构,包括L0基础大模型、L1行业大模型及L2场景模型。其中基础大模型当前包括NLP大模型、CV大模型、多模态大模型、预测大模型和科学计算大模型5种。华为云大模型已在政务、医疗、金融、司法、矿山、轨道、电力、气象等行业广泛应用。例如,政务大模型主要提供城市感知、协同办公、政策咨询、城市治理等功能;金融大模型则具备金融政策梳理、跨模态内容理解与多任务理解、代码智能生成及软件交互集成等能力;医疗大模型通过医疗报告的生成与解读服务推动医疗领域疑难问题的解决。

360集团法务部资深律师王乐表示,360拥有智脑大模型、奇元大模型、多模态大模型和安全大模型等产品线,其中智脑大模型和奇元大模型已通过备案向公众开放。针对生成式人工智能领域的个人信息保护风险,他指出主要有三个方面:训练数据过程中的误抓取风险、信息流转过程中的泄露风险、以及新业态下企业可能轻视信息安全的风险。建议采取轻事前重事后、轻过程重结果的监管策略,鼓励行业发展。同时,企业应强化自身安全建设,对个人信息进行分类分级管理,尤其要加强对敏感信息的监管,建立规范的信息管理及处理流程,确保合法合规使用。此外,企业应积极与监管部门沟通,及时报备新业态新模式及潜在风险,听取监管部门意见,在指导下落实个人信息保护工作。在信息收集及内部处理使用阶段以企业自律为主,个人信息分享、转让等涉及流出时,应对信息接收方进行安全能力评估,一旦发生泄露应从严处理。

阿里巴巴集团公共事务总监肖尧介绍了阿里巴巴在大模型领域的布局,包括自研的通义千问、通义万相两款基础大模型,以及开源的1.8B、7B、14B、72B参数大模型。同时推出了通义听悟、通义法睿、通义灵码等8类垂类大模型,并推出一站式大模型应用开发平台“百炼”,大幅降低大模型应用开发门槛。对于AIGC领域下的个人信息保护问题,肖尧表示阿里巴巴高度重视,严格根据法律要求和行业规范对AIGC全生命周期中的各关键节点采取针对性合规措施。建议探索AIGC数据治理的元规则,由政企学社媒多方联合,综合考虑治理价值的平衡性、治理主体的平衡性、治理手段的灵活性,开展敏捷治理。要以确定性的规则来满足人工智能对个人信息处理的需求,在保护个人信息的同时能够激发数据价值。此外,还需要通过行业标准、国家标准明确公开领域个人信息作为训练语料时的合法性的基础。

淘天集团政府事务总监铁木尔夫建议对生成式人工智能实施分级分类和分阶段监管,特别是对大型公司与小型垂类公司采取差异化监管策略。同时,可以构建沙箱自律监管平台,使大模型运行公开透明,便于监管部门了解个人信息保护情况,提升行业自律和事前监管效果。

中国信息通信研究院互联网法律研究中心高级工程师赵淑钰指出,生成式人工智能在发展过程中存在个人信息滥用、泄露风险,同时对现有立法中的“知情-同意”原则、删除权、更正权等构成挑战。建议实施审慎监管,明确大模型应用红线,以个案导向、问题导向解决突出问题,出台权威指引、标准,逐步构建完善生成式人工智能规则体系。

中国移动研究院博士袁博介绍了中国移动的九天大模型平台,该平台依托移动海量客户和网络运营,致力于让人工智能像水电一样普及。目前已发布139亿参数的九天众擎基座大模型,在研的行业大模型包括客服、政务、网络三大类。在大模型使用上,建议在保障用户和行业数据安全的同时,明确哪些数据、行业涉及国家机密不能对外渗透,做好安全措施。

北京邮电大学电子工程学院教授吴帆从法律法规和技术发展角度分析,当前国内生成式人工智能监管较为宽松,政府主要以约谈、督促方式展开监管,总体秉持保护企业、保护技术发展的立场。建议从标准和政策制定层面快速引导、迭代和推进,使监管体系与技术发展速度相匹配。在使用境外服务时,政府应加强对关键数据、国家安全数据的分级分类统筹管理,确保国家数据安全。

中国社科院法学所研究员、科技与法研究中心主任杨延超指出,生成式人工智能领域下个人信息保护的最大风险在于使用过程中的聊天记录形成的完整用户画像,使用者的意思意图会被完整精确地表达出来。因此,保护重点应放在大模型使用过程中聊天记录的管理与治理,明确聊天记录是否需要定期删除、是否能用于训练等问题。政府需要考虑如何实现有效监管,如充分落实数据删除权等,确保个人信息不被泄露或滥用。

中国科学院信息工程研究所正高级工程师戴娇建议,人工智能监管政策要服务于国家整体发展,生成式人工智能的管理尺度应与不同发展阶段和发展诉求相匹配。在坚持包容审慎鼓励发展原则的基础上,可以通过发展个人信息保护技术推动生成式人工智能的治理,同时加强事前、事后的管理,事前阶段对涉及侵权或违法的信息进行处理,使生成式人工智能无法对该类信息进行操控或修改,事后阶段通过设置方便事后追溯的标识等推动监管。同时,建议构建一套框架性的监管体系,配合现行规范体系推动监管的落地。

中国政法大学副校长、数据法治研究院院长时建中总结表示,生成式人工智能的监管要充分考虑发展与安全、促进与规范、国内与国际、研发与运用、政府与市场等因素的关系,明确侧重点。同时,站在全球视角,针对我国数据、算法、算力等人工智能不同要素的情况,精准施策。当前生成式人工智能缺乏高质量的训练数据,公共数据流通也存在障碍。随着生成式人工智能算法的先进程度与复杂度日益提高,算法黑箱的问题也日益凸显,而算力的不断发展也在冲击各类数据加密手段。建议以促进发展为目标,在实践中分场景展开监管。对于预训练阶段个人信息的使用可采取宽容的态度,对于实际应用场景则做严格把控。同时,注重发挥法律规范的倒逼作用,在明确主体责任与对象的基础上,推动企业以先进技术实现对用户个人信息的保护。

会议认为,我国生成式人工智能在政务、医疗、金融等领域已展开广泛的应用,但需注意到其与产业前沿之间的技术差距。个人信息的保护要以促进发展为目标,做好各类监管场景的区分。建议政府以自上而下的形式构建一套生成式人工智能的治理框架,加快该领域下标准与政策的制定进程,使其与生成式人工智能技术的发展需要相匹配。同时,不断创新隐私保护技术,以技术手段解决好生成式人工智能领域下的个人信息保护问题,实现我国新质生产力的发展与飞跃。

本文原文来自中国互联网协会

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号