问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

人工智能伦理标准:缘起、现状和工作建议

创作时间:
作者:
@小白创作中心

人工智能伦理标准:缘起、现状和工作建议

引用
1
来源
1.
http://www.360doc.com/content/24/0522/23/84362020_1124054121.shtml

人工智能是新一代信息技术的重要代表,具有高度智能化、自动化和规模化等特征,伴随着算法难以解释和高度的数据与算力依赖性等问题,重塑或放大了人类社会的固有问题,并在拓宽伦理边界的过程中形成新的问题。作为一项使能技术,人工智能可与各行各业结合并形成链式反应,这一跨界融合特征使得人工智能在成为全球产业转型升级的新动能的同时,也使得人工智能伦理治理成为全球科技治理的焦点。


(本图片由AIGC生成)

针对这一全球科技治理焦点和难点,国内外学者普遍认为目前对人工智能伦理的治理大多停留在原则、倡议阶段,从原则到实践还存在巨大鸿沟。此外,国际上对人工智能伦理的治理路线存在差异,也导致难以推动形成全球共识。综合相关观点,人工智能伦理治理需要更具体和有影响力的方式,其中,标准尤为重要。通过标准及标准化,人工智能伦理原则可被逐步还原和细化,并达成最小共识,进而将倡议式的伦理原则转化为切实可行的标准。相关理论研究和标准制定的实践形成了人工智能伦理标准的概念。IEEE Autonomous Systems Validation Working Group_P7001工作组主席艾伦·温菲尔德(Alan Winfield)提出,“人工智能伦理标准是解决明确表述的伦理问题的标准,通过其应用,有望移除、减少或至少突出潜在的不道德影响或后果”。更进一步,根据人工智能伦理标准对相关实体进行认证,有望在实践中进一步降低人工智能伦理风险。上述愿景使得人工智能伦理标准及标准化成为人工智能伦理治理的重要载体。

一、人工智能伦理标准的政策背景

国际上,联合国教科文组织2021年11月正式发布的《人工智能伦理问题建议书》(Recommendation on the Ethics of Artificial Intelligence)提出,全球公认的、充分尊重国际法特别是人权法的人工智能技术伦理标准(Ethical Standards for AI Technologies)可以在世界各地制定人工智能相关规范方面发挥关键作用。建议书立足科技伦理,将伦理视为对人工智能技术进行规范性评估和指导的动态基础,建议制定国际标准;鼓励包括工商企业在内的所有人工智能行为者遵守现行国际标准;要求在已制定或通过人工智能伦理标准的国家从事人工智能系统开发的人工智能行为者,在出口相关产品以及在可能没有此类标准的国家开发或应用其人工智能系统时,遵守这些标准以防止滥用与人工智能系统有关的市场支配地位。

国家层面以美国为例。美国国家科学技术委员会于2023年5月发布《国家人工智能研究和发展战略计划:2023 更新版》(National Artificial Intelligence Research and Development Strategic Plan: 2023 Update),首次将人工智能列为国家战略,并将伦理和标准问题作为重要议题。此外,总部位于美国的电气与电子工程师协会(IEEE)早在2016年成立了自主和智能系统伦理全球倡议组织(The IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems),在2017年发布了世界首个人工智能设计的伦理准则《合乎伦理的设计:利用人工智能和自主系统优化人类福祉的愿景》(Ethically Aligned Design: A Vision for Prioritizing Human Wellbeing with Artificial Intelligence and Autonomous System),并以此为基础开展一系列人工智能伦理标准的研制工作。


我国也高度重视人工智能伦理标准及标准化。从时间线上看主要有,国家新一代人工智能治理专业委员会于2019年6月《新一代人工智能治理原则——发展负责任的人工智能》,提出“推动形成具有广泛共识的国际人工智能治理框架和标准规范”。国家标准委、中央网信办、国家发改委等五部委于2020年7月联合发布《国家新一代人工智能标准体系建设指南》,将安全/伦理标准作为人工智能的合规体系,贯穿整个标准体系。之后,国家新一代人工智能治理专业委员会于2021年9月发布《新一代人工智能伦理规范》,将立法、伦理和标准作为人工智能伦理治理的三大载体。中办、国办于2022年3月发布《关于加强科技伦理治理的意见》,明确要求伦理先行,依法依规开展科技伦理治理工作,特别提出制定完善科技伦理规范和标准,重点领域包括人工智能。国家人工智能标准化总体组和全国信标委人工智能分委会于2023年3月共同发布《人工智能伦理治理标准化指南(2023)版》,对人工智能伦理原则、风险和治理工具等进行了分析,布局建设人工智能伦理标准体系。最近,科技部、教育部、工业和信息化部等十部委于2023年10月发布《科技伦理审查办法(试行)》,将“对人类主观行为、心理情绪和生命健康等具有较强影响的人机融合系统的研发;具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统的研发;面向存在安全、人身健康风险等场景的具有高度自主能力的自动化决策系统的研发”列入需要开展伦理审查复核的科技活动清单,全文多次提到审查标准。

二、人工智能伦理标准梳理

世界上首个明确发布的机器人和人工智能伦理标准是英国标准组织(BSI)在2016年发布的BS 8611《机器人与机器人设备:机器人和机器人系统的伦理设计和应用指南》(Robots and robotic devices. Guide to the ethical design and application of robots and robotic systems),该标准踏出了把伦理道德融入机器人和人工智能的第一步。

紧随其后,IEEE于2017年开始研制一系列人工智能伦理标准并有部分已经发布,在国际人工智能伦理治理、技术研发和标准制定方面产生重要影响。比如IEEE 7000-2021 Model Process for Addressing Ethical Concerns During System Design,已转化为国际标准ISO/IEC/IEEE 24748-7000:2022 Systems and software engineering - Life cycle management - Part 7000: Standard model process for addressing ethical concerns during system design。已发布或制定中的相关标准如下。

国际标准化组织/国际电工委员会第一联合会人工智能分技术委员会(ISO/IEC JTC/SC42)是制定人工智能伦理方面国际标准的主要组织,由美国国家标准协会(ANSI)承担秘书处工作。已发布或制定中的相关标准如下。

我国人工智能伦理标准主要由全国信息技术标准化委员会人工智能分技术委员会(SAC/TC 28/SC 42)组织开展研制,其他标准化技术组织或有发布团体标准资质的社会团体也开展了相关工作。现阶段,我国已经发布的人工智能伦理标准主要为团体标准。

三、人工智能伦理标准化工作建议

目前来看,国际和国内的人工智能伦理标准仍然较少,没有形成系统性的人工智能伦理标准体系和理论框架。并且,已发布的人工智能伦理标准多以指南的形式出现,仅有个别标准在传统技术标准的基础上附加了一些伦理要求,或将一些伦理价值简化为了技术上的性能指标。而更加具体、明确或独立的方法类、测试类人工智能伦理标准较少,仍处于在研阶段或尚未提出。此外,我国人工智能伦理标准无论是在起步时间,还是数量和影响力方面,都落后于欧美国家。

人工智能伦理的标准化工作能够为人工智能技术及其伦理、法律和社会问题(ELSI)的协同发展和协同治理提供支撑,而其中形成的国际标准则进一步有利于增强跨国的学术交流和技术合作,以及市场贸易话语权和竞争力。对于如何加强我国人工智能伦理标准化工作,结合相关学者和组织机构研究,有以下建议。

一是人工智能伦理治理方面的国际交流与合作可以“求同存异、和而不同”。在人工智能伦理标准方面,可以先和部分国家在部分领域以及具体问题上达成共识,从而抢占或避免被抢占人工智能伦理标准的话语权,以防在跨国学术交流、技术合作和商业贸易中遭受限制。科学技术的迅猛发展超越了社会的认知和适应,使得科技伦理日益受到全球各国和国际组织、企业的关注和重视。而借助国际标准的平台,抓住人工智能伦理这一重点,能够有效提高我国参与全球科技治理特别是人工智能治理的影响力。

二是建立更为宏观多元的人工智能伦理标准体系。将大数据、情感计算、脑机接口、隐私计算等使用了人工智能算法、可能产生相关伦理风险或者有助于人工智能伦理治理的新一代信息技术,纳入人工智能伦理治理的范畴,建立“泛人工智能伦理“标准体系,从而统筹和协同推进人工智能伦理标准的制定。相关技术和应用既是“泛人工智能伦理”风险的治理对象,也可以作为人工智能伦理风险的治理工具。

三是标准研制层面对人工智能伦理管理标准和技术标准双管齐下。首先,对于人工智能技术应用的高风险领域标准,面向自动驾驶、教育、医疗等重要场景和行业,针对性制定行业伦理规范、行为准则和从业人员要求等标准。其次,在开展伦理设计、审查、风险管理、人机协作等指南、框架、体系类标准研制的同时,对可解释性、公平性、隐私性、鲁棒性、可追溯性等伦理增强和嵌入的行业/场景针对性和通用性方法、规程、指标要求类标准以及测试评估标准等方面重点突破,积极发展安全、可信、可靠和可扩展的人工智能技术方法和技术标准。可以开展数据分布修正、算法公平性约束、偏见歧视后处理,以及模型文件校验、漏洞挖掘修复、数据/特征/模型/逻辑可解释方法、对抗测试等等人工智能伦理技术方法和标准研制,增强以技术治理人工智能伦理风险的能力。

参考文献

[1] Winfield A. Ethical standards in robotics and AI[J]. Nature Electronics, 2019, 2(2):46.

[2] Winfield A, Jirotka M. Ethical governance is essential to building trust in robotics and artificial intelligence systems[J]. Philosophical Transactions of the Royal Society A, 2018,376(2133).

[3] Frederic G R. Evolving Ethical Standards in the Digital Age[J]. Australian Social Work, 2017(70):2, 148-159.

[4] Mittelstadt B. Principles alone cannot guarantee ethical AI[J]. Nature Machine Intelligence, 2019, 1(11):501–507.

[5] Prunkl C E A, Ashurst C, Anderljung M, et al. Institutionalising Ethics in AI through Broader Impact Requirements[J]. Nature Machine Intelligence, 2021(3):104–110.

[6] Hagendorff T. A Virtue-Based Framework to Support Putting AI Ethics into Practice[J]. Philosophy & Technology, 2022(35), 55.

[7] Lewis D, Hogan L, Filip D, et al. Global Challenges in the Standardization of Ethics for Trustworthy AI[J]. Journal of ICT Standardization, 2020.

[8] Seán S. ÓhÉigeartaigh, Jess Whittlestone, Yang Liu, Yi Zeng & Zhe Liu. Overcoming Barriers to Cross-cultural Cooperation in AI Ethics and Governance[J]. Philosophy & Technology, 2020 (33):571–593.

[9] 陈小平.人工智能伦理建设的目、任务与路径:六个议题及其依据[J].哲学研究,2020(09):79-87 107 129.

[10] 陈小平.人工智能伦理体系:基础架构与关键问题[J].智能系统学报,2019,14(04):605-610.

[11] 杨嘉帆,刘彦林,李慧杰等.面向统一大市场的人工智能伦理标准——一种马克思主义政治经济学的理论模型[J/OL].科学学研究:1-21[2023-09-19].

[12] 国家人工智能标准化总体组,全国信标委人工智能分委会.人工智能伦理治理标准化指南[R/OL].2023-03.

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号