问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

AI眼看人低,如何破除AI数据训练中的偏见?|科技创新伦理前瞻

创作时间:
作者:
@小白创作中心

AI眼看人低,如何破除AI数据训练中的偏见?|科技创新伦理前瞻

引用
搜狐
1.
https://m.sohu.com/a/800944107_100001695/?pvid=000115_3w_a

随着人工智能(AI)技术的快速发展,其在日常生活中的应用日益广泛。然而,AI模型的性能很大程度上依赖于其训练数据。如果训练数据中存在偏见,那么AI模型很可能会将这些偏见放大,导致不公平、不准确甚至有害的结果。

偏见的来源

过去常常我们说“狗眼看人低”,因为狗狗常常基于自己的过去看到的不同的人的经验、来决定新出现的一个人是什么身份、应该如何对待;以后在算法的世界里面,可能常常某个“AI眼看人低”的情况。

AI训练数据中的偏见,主要来源于几个方面。一是历史数据往往反映了社会的过去,其中包含着各种各样的社会偏见,例如种族歧视、性别歧视、阶层歧视等。这些历史遗留问题在数据中留下了深深的烙印。二是数据收集的方式和渠道,可能会引入偏见。你比如,如果一个问卷调查主要针对城市居民,那么AI模型就可能对农村居民的情况了解不足。又如,数据标注过程中的主观性也是一个重要因素。人工标注数据时,标注者的个人观点、价值观和文化背景会不可避免地影响标注结果,从而引入人为的偏见。而且,算法设计中的“假设”,也很可能导致偏见。算法的设计者在设计算法时,往往会做出一些隐含的假设,这些假设可能反映了设计者的个人偏见。

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号