AI专题:数据安全与道德边界,大语言模型的ESG视角
AI专题:数据安全与道德边界,大语言模型的ESG视角
随着人工智能技术的快速发展,数据安全和道德边界成为社会各界关注的焦点。本文从ESG(环境、社会和治理)视角出发,深入探讨了大语言模型在数据安全和道德边界方面面临的问题和挑战,并提出了相应的应对策略。
可持续信息披露指引
我国政府积极推动科技伦理治理,出台多项政策文件,如《关于加强科技伦理治理的意见》等,明确科技活动伦理原则,建立治理体制,加强制度设计与监管措施。2024年《上市公司可持续发展报告指引》正式发布,对上市公司可持续信息披露产生重大影响,促进披露质量提升,为可持续投资奠定基础。
科技伦理议题与行业影响
科技伦理涉及科技创新、数据安全、隐私保护等方面,在人工智能、生物科学、网络安全等高新技术领域尤为突出。不同行业的科技伦理体现各异,如生命科学行业需遵循研究道德约束、保护患者隐私;人工智能行业要确保算法公正透明、可解释;医疗健康行业维护患者尊严隐私;科技研发和生产企业推动可持续发展;信息技术和互联网服务提供商保障用户数据安全和隐私。
人工智能发展与科技伦理监管
人工智能高速发展,国内外模型不断涌现,如国内的讯飞星火、华为盘古,国外的Meta LLaMA、Google Gemini等。我国发布多项政策确保AI健康发展,如《关于加强科技伦理治理的意见》等。欧盟以数据保护为中心,美国侧重算法监管,国际组织提出伦理原则,首届全球人工智能安全峰会探讨相关风险与机遇,我国提出治理倡议,强调发展与安全并重。
应对策略
为确保人工智能系统安全运行,采取“深度防御”策略,包括技术方法与伦理手段。技术方法如评估适用性、限制系统运行范围、提高代理活动可读性、自动中断等,可消除或减轻AI缺点,规避伦理风险;伦理手段通过嵌入伦理道德,有自上而下、自下而上和混合方法三种设计范式,如嵌入实践思路、道德特殊主义思路,以确保AI做出合理、公正且符合伦理的选择。
共同富裕与科技伦理
科技发展对共同富裕有双重影响,虽能提升效率、增加收入,但也可能扩大差距、抑制共同富裕,体现在收入分配不均、数字鸿沟难以逾越、企业社会效益难量化、劳动力需求下降、社会稳定度降低等方面。科技创新应秉持“科技向善”理念,注重普惠性,平衡技术进步与社会公平,实现共同富裕。
国内企业科技伦理现状
高科技龙头企业如科大讯飞、中兴通讯、阿里巴巴重视科技伦理,在ESG信息披露和守护科技伦理方面表现突出,如科大讯飞构建多重数据安全防护平台,中兴通讯完善数据保护制度并获国际认证,阿里巴巴确立科技伦理准则并构建防御系统。但多数科技公司对科技伦理重视不足,社会责任和环境可持续性表现缺乏透明度,虽部分公司建立科技伦理委员会,但整体仍需改进。