ChatGPT引发AI风险热议,中国如何应对?
ChatGPT引发AI风险热议,中国如何应对?
ChatGPT的横空出世,不仅引发了全球对人工智能(AI)技术发展的热烈讨论,也带来了前所未有的安全风险挑战。从个人信息泄露到金融诈骗,从网络传销到知识产权侵权,AI技术的广泛应用正在考验着人类社会的安全底线。面对这些挑战,中国正积极构建AI安全治理体系,为全球AI发展贡献中国智慧。
ChatGPT引发的安全风险
自ChatGPT推出以来,其强大的交互能力和知识生成能力令人瞩目,但也暴露出一系列安全风险。例如,用户在使用ChatGPT时,其与AI的交流内容会被记录,甚至用于与其他用户交互,这可能导致个人信息泄露。此外,不法分子还可能利用ChatGPT概念进行股票操纵、非法集资等金融诈骗活动。更有甚者,一些不法分子通过推广山寨版ChatGPT,采用“人头激励”方式实施网络传销。
这些风险背后,是AI技术本身带来的深层次挑战。生成式AI的运行分为数据准备、算法处理和内容生成三个阶段,每个阶段都存在不同的安全风险。在数据准备阶段,涉及国家数据、政务数据和个人数据的安全问题;在算法处理阶段,存在算法偏见和歧视风险;在内容生成阶段,则面临知识产权侵权等挑战。
中国AI安全治理的创新实践
面对AI带来的安全挑战,中国积极构建全方位的安全治理体系。2024年9月,全国网络安全标准化技术委员会发布《人工智能安全治理框架》1.0版,提出“包容审慎、确保安全,风险导向、敏捷治理,技管结合、协同应对,开放合作、共治共享”的核心治理原则。
该框架将AI安全风险分为模型算法安全、数据安全和系统安全等13项内生安全风险,以及网络域、现实域、认知域、伦理域等13项应用安全风险,并提出了39项技术应对措施和9项综合治理措施。同时,明确了模型算法研发者、服务提供者、重点领域使用者以及社会公众等不同行为体的安全责任,确保AI“安全开发”“安全服务”“安全使用”“安全普及”。
国际AI安全治理的最新动态
在国际层面,中国积极参与全球AI治理合作。中国外交部原副部长傅莹在巴黎人工智能行动峰会上表示,中国愿与国际社会携手,共同促进AI安全发展。中国已成立“中国人工智能发展与安全研究中心”,并先后发布《全球人工智能治理倡议》、签署《布莱奇利宣言》,推动联合国大会通过加强人工智能能力建设国际合作决议。
然而,当前国际AI治理也面临地缘政治干扰的挑战。例如,经济合作与发展组织(OECD)启动的企业主动公开AI风险的国际框架中,中国就被排除在外。傅莹指出,中美在AI领域的合作对全球治理至关重要,但美国对华科技封锁和打压正在毒化全球合作氛围。
展望未来:构建人类命运共同体
面对AI带来的机遇与挑战,中国始终坚持“人类命运共同体”理念,主张在尊重彼此核心利益和重大关切的基础上,坚持相互尊重、和平共处、合作共赢的原则。正如傅莹所言,如果各国携手合作,人类有可能管控机器;如果相互排斥并利用高智能机器彼此对抗,机器赢的概率恐怕更大。
未来,中国将继续在AI安全治理领域发挥积极作用,推动建立更加公平、开放、合作的全球治理体系,为AI技术的健康发展贡献中国智慧和力量。