微软和GitHub的六项负责任AI原则
微软和GitHub的六项负责任AI原则
随着人工智能技术的快速发展,如何确保AI系统的安全、公平和透明成为了一个全球性议题。微软作为负责任AI领域的领导者,提出了六项关键原则,为AI的开发和使用提供了重要的指导框架。
微软确定了六项关键原则,以指导AI的开发和使用:
- 公平:AI系统应该公平对待所有人。
- 可靠性和安全性:AI系统应安全可靠。
- 隐私和安全性:AI系统应安全,并尊重隐私。
- 包容:AI系统应该支持每个人并吸引人们参与。
- 透明:AI系统应该是可理解的。
- 责任:用户应负责AI系统。
让我们更详细地探讨这些原则中的每一项,以了解它们如何指导负责任AI实践。
公平性:AI系统应该公平对待所有人
AI系统应该公平对待每个人,避免对处境类似的群体产生不同的影响。在医疗、贷款申请或就业等方面,AI应该为具有相似症状、财务状况或资格的个人提供一致的建议。
采用技术来检测偏差并降低不公平带来的影响,例如:
- 查看训练数据。
- 使用均衡的人口统计样本测试模型。
- 使用对抗性去偏差方法。
- 跨用户群体监视模型性能。
- 实施控制来替代不公平模型分数。
在多样化的和均衡的数据上训练AI模型有助于降低偏差,最终促进公平。
可靠性和安全性:AI系统应可靠且安全地运行
若要建立信任,AI系统必须可靠、安全、一致地运行。这些系统需要按设计方式运行、安全地响应意外情况,并抵御有害操作。其行为以及其所处理的各种情况反映了开发人员在设计和测试期间的预见。
AI中的安全性是指尽量减少意外伤害,包括对个人和社会造成的身体、情感和经济伤害。可靠性是指AI系统能够按照预期一致地运行,不会出现不必要的可变性或错误。安全可靠的系统在正常情况下是稳健、准确且行为可预测的。
隐私和安全性:AI系统应该安全,并且应该尊重隐私
随着人工智能(AI)变得越来越普遍,保护用户隐私和数据安全变得至关重要。微软和GitHub意识到了这一点,两家公司都将隐私和安全性作为其负责任AI计划的关键部分。该计划注重使用原则来指导数据实践。
微软和GitHub对负责任AI的做法旨在阻止滥用和维护用户信任。要点包括:
- 在收集用户数据之前获得用户的许可。清楚地说明AI会如何使用其数据,并且获得其同意。不要秘密收集数据。让用户选择是否愿意分享个人数据,并通过明确的提示和政策告知他们。
- 仅收集AI运行所需的数据。一旦使用AI,就应避免收集额外信息并删除敏感数据。定期检查数据输入以确保只收集必要的数据。
- 将个人数据匿名化。使用假名化和聚合等方法来保护标识。假名化用随机标识符替换个人详细信息,而聚合则将数据分组成摘要,会删除特定的个人详细信息。
在传输和存储过程中对敏感数据进行加密。通过以下方式使用强加密方法和安全密钥:
- 硬件安全模块(HSM),用于将密钥存储在防篡改环境中。
- 像微软Azure这样的安全保管库,用于带受控访问的密钥存储。
- 信封加密,使用两个密钥来提高安全性。
组织应对谁可以访问密钥和模型进行控制,应定期轮换密钥,并应安全地备份密钥。组织还应限制员工对敏感模型和数据的访问,根据敏感度对其分类,并定期进行安全审核,以防止未经授权的访问。
包容性:AI系统应该成为所有人的得力助手,并与人互动
包容性是指确保AI系统公平、可访问并成为所有人的得力助手。微软的负责任AI标准认识到AI创建者(包括GitHub)必须主动设计AI,以涵盖所有人员、社区和地区——尤其是那些从历史角度来看代表性不足的社会领域。
微软的负责任AI包容性标准是指:
- AI系统适用于各种不同的用户和群体。它们不会对某些人不利。
- AI系统是可以访问的。任何人都可以轻松使用AI系统,无论身体能力或心智能力如何。
- AI系统遍布世界各地甚至发展中国家/地区。AI系统不能排除某些地理区域。
- 来自不同背景和社区的人们为AI系统的发展提供了意见。
- AI系统让所有用户都能平等地受益于其能力。它们必须成为所有人的得力助手。
包容性AI的例子包括:
- 适用于不同肤色、年龄和性别的面部识别。
- 为视障人士提供屏幕阅读器支持的界面。
- 支持小众区域方言的语言翻译。
- 在设计系统时寻求不同观点的团队。
微软的负责任AI标准要求每个人都可以访问AI系统,无论其是否有残疾障碍、语言障碍或基础设施障碍。负责任AI解决方案必须能够通过以下方式实现完全的全球包容性:
- 提供替代性的交互模式,例如语音控制、字幕和屏幕阅读器。
- 支持适应不同的语言和本地文化背景。
- 脱机工作,在连接和计算资源受限时正常工作。
透明度:AI系统应该是可理解的
微软的负责任AI透明度原则强调AI系统必须是可理解的和可解释的。AI创建者应该:
- 通过清晰的验证框架清楚地说明其系统如何运行。
- 证明AI系统背后的设计选择的合理性。
- 坦陈AI系统的功能和局限性。
- 通过日志记录、报告和审核功能实现可审核性。
透明度对于建立信任、确保问责、促进公平、增强安全和支持包容性至关重要。实现透明度涉及记录数据和模型、创建解释界面、使用AI调试工具、构建测试仪表板以及启用日志记录和审核。AI创建者保持透明度,可以促进信任并推广使用负责任AI标准。
问责:应有相关人员对AI系统负责
问责原则规定AI创建者应对其系统的运行方式负责。他们需要持续监视系统性能并降低风险。随着备受瞩目的算法伤害、偏见和滥用案例的曝光,AI行业的问责正成为一个日益紧迫的问题。批评者越来越认为,如果没有问责,AI创建者就会对影响人们生活的不透明系统拥有过多权力。
微软通过其负责任AI标准强调AI开发和部署中的问责,该标准将问责视为一项基本原则。根据微软的说法,AI系统必须对人负责,部署AI系统的公司必须对AI系统的运行负责。