微软亚洲研究院:以社会责任驱动AI健康发展
微软亚洲研究院:以社会责任驱动AI健康发展
微软亚洲研究院近期举办了一场关于“社会责任人工智能(Societal AI)”的研讨会,邀请了众多专家学者共同探讨人工智能对社会结构和人际关系的影响。特别是在社会公平方面,专家们讨论了AI大规模应用可能加剧社会不平等问题,提出了多种应对方案。此次研讨会旨在推动社会各界共同探索AI技术的健康发展路径,确保其对社会的正面影响最大化。
微软的AI伦理框架
微软在AI伦理和社会责任方面有着明确的立场和框架。公司提出了六大关键原则,以确保AI系统的开发和应用能够赢得人们的信任:
- 公平性:AI系统应平等对待每个人,避免基于个人特征的歧视。
- 可靠性和安全性:AI系统必须在各种条件下可靠、安全、一致地运行。
- 隐私和保障:AI系统应尊重隐私,保护私人和机密信息。
- 包容性:AI系统应该支持每个人,吸引各种能力的人参与。
- 透明度:AI系统应该是透明和易于理解的。
- 问责制:AI系统及其开发人员应当承担责任。
这些原则不仅停留在理论层面,微软还将其转化为具体的实践指南和工具,帮助开发者在AI系统的设计、构建和测试过程中贯彻这些原则。
AI与社会公平的挑战
尽管AI技术带来了巨大的便利和效率提升,但其广泛应用也可能加剧社会不平等。微软亚洲研究院资深首席研究员谢幸指出,AI系统可能在以下几个方面带来社会公平问题:
- 就业歧视:AI招聘系统可能因训练数据的偏差而对某些群体产生歧视。
- 服务获取不平等:智能客服系统可能无法有效理解和服务于语言能力较弱的用户。
- 偏见和仇恨言论:大语言模型可能在生成内容时传播社会偏见和仇恨言论。
谢幸表示,为确保AI与人类和谐共存,其团队正从多个维度推进Societal AI的研究:
- 价值观对齐:确保AI在与人和社会合作时秉承相同的价值观。
- 数据及模型安全:保护训练AI的数据以及模型的安全,包括隐私、版权等。
- 正确性或可验证性:保证AI的输出是可以验证的、正确的。
- 模型评测:提出全新的评测方式框架,以准确评估AI的能力。
- 跨学科合作:与法学、社会学、心理学等领域的专家合作,共同研究AI的未来发展目标。
微软的应对方案
为应对AI带来的社会公平挑战,微软亚洲研究院采取了多项创新措施:
- 隐私保护:开发有效的隐私保护方法,确保用于大模型训练或微调的隐私数据得到妥善保护。
- 模型解释性:设计通俗易懂的模型解释方法,帮助用户理解大模型的工作原理。
- 消除偏见:着力消除或减轻用于训练大模型的数据中固有的社会偏见和仇恨。
特别值得一提的是,谢幸团队在跨学科合作方面取得了显著成果。他们与心理学专家团队合作,借鉴心理评测领域的经验,探索如何更好地评估AI的能力。这种跨学科的视角为AI的健康发展提供了新的思路和方法。
微软亚洲研究院在AI伦理和社会责任方面的努力已经取得了显著成效。谢幸团队的研究在全球产生了深远影响,发表了400余篇学术论文,被引用40000余次。他本人也因其在AI技术规范发展方面的贡献,成为DeepTech 2022年“中国智能计算科技创新人物”入选者之一。
随着AI技术的不断发展,如何平衡技术创新与社会公平成为了一个全球性的课题。微软亚洲研究院通过其在Societal AI领域的研究和实践,为这一难题提供了有价值的参考和解决方案。未来,我们期待看到更多像微软这样的科技巨头,在推动AI技术进步的同时,也能积极承担起社会责任,确保AI真正成为造福全人类的工具。