问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

专家齐聚蓝海沙龙:共议生成式人工智能下的个人信息保护之道

创作时间:
作者:
@小白创作中心

专家齐聚蓝海沙龙:共议生成式人工智能下的个人信息保护之道

引用
1
来源
1.
https://www.isc.org.cn/article/20179472929386496.html

2024年3月22日,中国互联网协会在北京召开了第269期蓝海沙龙研讨会,主题聚焦“生成式人工智能领域下的个人信息侵害风险及应对策略”。来自学术界、企业界和研究机构的多位专家参与了此次研讨会,共同探讨了生成式人工智能在快速发展过程中面临的个人信息保护挑战,并提出了相应的应对策略。

中国互联网协会副秘书长裴玮在会上表示,生成式人工智能为教育、娱乐、医疗保健和科学研究等多个领域提供了变革潜力,激发起前所未有的关注度和创造力浪潮。但与此同时,生成式人工智能也对既有的个人信息保护体系形成了巨大冲击与威胁。生成式人工智能通常需要大量数据进行训练,随着其广泛使用,个人数据的收集、存储和处理将变得非常普遍。在未形成有效的数据管理和个人信息保护机制的情况下,生成式人工智能服务将缺乏透明性和可控性,因此,个人信息保护的落地需要更加细化的技术、机制与规则设计。

本次研讨会结合人工智能的具体落地应用案例,重点关注生成式人工智能时代如何提升个人信息保护技术手段的有效性,讨论如何健全监管空缺与补充机制、平衡安全与发展等问题,旨在为政府部门的监管和治理提供思路和建议,更好地推动生成式人工智能行业的建设和健康发展。

华为云EI解决方案专家张瑞锋介绍了华为云大模型的三层架构,包括L0基础大模型、L1行业大模型及L2场景模型。其中基础大模型当前包括NLP大模型、CV大模型、多模态大模型、预测大模型和科学计算大模型5种。华为云大模型已在政务、医疗、金融、司法、矿山、轨道、电力、气象等行业得到广泛应用。例如,政务大模型主要提供城市感知、协同办公、政策咨询、城市治理等功能;金融大模型则专注于金融政策梳理、跨模态内容理解与多任务理解、代码智能生成及软件交互集成等。

360集团法务部资深律师王乐指出,生成式人工智能领域个人信息保护面临三大风险:训练数据过程中的误抓取风险、信息流转过程中的泄露风险、以及新业态下企业可能轻视信息安全的风险。他建议采取轻事前重事后、轻过程重结果的监管策略,鼓励行业发展。企业应强化自身安全建设,对个人信息进行分类分级管理,尤其要加强对敏感信息的监管,建立规范的信息管理及处理流程,确保合法合规使用。同时,企业应积极与监管部门沟通,及时报备新业态新模式及潜在风险,听取监管建议。

阿里巴巴集团公共事务总监肖尧表示,阿里巴巴已自研通义千问、通义万相两款基础大模型,并开源多个参数规模的大模型,推出8类垂类大模型及一站式开发平台“百炼”。对于AIGC领域的个人信息保护,阿里巴巴严格遵循法律要求和行业规范,对关键节点实施针对性合规措施。他建议探索AIGC数据治理的元规则,由政企学社媒多方联合,综合考虑治理价值、主体和手段的平衡性,开展敏捷治理。通过确定性规则平衡个人信息保护与数据价值激发,推动行业标准和国家标准的制定。

淘天集团政府事务总监铁木尔夫建议对生成式人工智能实施分级分类和分阶段监管,通过行业协会构建沙箱自律监管平台,实现模型运行的公开透明,提升行业自律和事前监管效果。

中国信息通信研究院互联网法律研究中心高级工程师赵淑钰指出,生成式人工智能在发展过程中存在个人信息滥用和泄露风险,对现有“知情-同意”原则等构成挑战。她建议实施审慎监管,明确大模型应用红线,以个案导向解决突出问题,逐步构建完善规则体系。

中国移动研究院博士袁博介绍了九天大模型平台的发展情况,强调在技术保障用户和行业数据安全的同时,需要明确涉及国家机密信息的边界,做好安全措施。

北京邮电大学电子工程学院教授吴帆认为,国内生成式人工智能监管总体秉持保护企业、保护技术发展的立场。他建议从标准和政策制定层面快速引导迭代,使监管体系与技术发展速度相匹配。在使用境外服务时,政府应加强对关键数据、国家安全数据的分级分类管理,确保数据安全。

中国社科院法学所研究员杨延超指出,生成式人工智能使用过程中的聊天记录会形成完整的用户画像,是个人信息保护的重点。他建议明确聊天记录的管理与治理规则,确保数据不被滥用。

中国科学院信息工程研究所正高级工程师戴娇建议,人工智能监管政策要服务于国家发展,管理尺度应与不同发展阶段相匹配。她建议通过发展个人信息保护技术推动治理,加强事前事后管理,构建框架性监管体系。

中国政法大学副校长时建中总结道,生成式人工智能的监管需要平衡发展与安全、促进与规范、国内与国际等因素。他建议以促进发展为目标,分场景展开监管,对预训练阶段采取宽容态度,对实际应用场景严格把控。同时,注重发挥法律规范的倒逼作用,推动企业采用先进技术保护用户个人信息。

会议认为,我国生成式人工智能在政务、医疗、金融等领域已展开广泛应用,但需关注与产业前沿的技术差距。个人信息保护应以促进发展为目标,做好各类监管场景区分。建议政府构建生成式人工智能治理框架,加快标准与政策制定进程,使其与技术发展相匹配。同时,应不断创新隐私保护技术,实现新质生产力的发展与飞跃。

本文原文来自中国互联网协会

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号