AI放大社会偏见,专家:应转向人机共处设计思路
AI放大社会偏见,专家:应转向人机共处设计思路
AI与人类:从对立到共生
在人工智能(AI)快速发展的今天,如何定位AI与人类的关系成为了一个亟待解决的问题。清华大学公共管理学院教授梁正在“AI&Society百人百问”活动中指出,AI与人类的关系正在从单纯的工具使用转向更为复杂的共生关系。他认为,短期内AI放大了原有的社会问题,如隐私保护、公平性和歧视等,但从长远看,关键在于如何定位人类与AI的关系。AI的设计不应单纯追求替代人类,而应考虑人机共处,通过有意识的引导和治理,促进两者和谐共生。
AI放大社会问题:隐私与公平性的双重挑战
AI在为社会带来便利的同时,也放大了一些原有的社会问题。以隐私保护为例,马上消费的“爱马平台”利用隐私计算技术打击金融黑产,同时保护用户隐私,入选《2024全球隐私计算报告》,展示了AI在隐私保护方面的最新进展。然而,AI在其他领域的应用却引发了隐私保护的担忧。例如,AI在招聘中的应用就引发了公平性和歧视问题。
华盛顿大学的一项研究揭示了AI工具在求职者排名中存在的显著种族和性别偏见。研究分析了超过550份真实简历,结果显示,AI模型在评估求职者时,85%的时间偏向于被认为是白人名字的简历,而与黑人相关的名字仅被偏好9%的时间。此外,女性名字的偏好率仅为11%,而男性名字则高达52%。这些数据表明,AI在招聘过程中可能会加剧现有的社会不平等,尤其是对女性和少数族裔的歧视。
人机共处:AI设计的新思路
面对AI带来的社会问题,梁正教授强调,AI的设计不应单纯追求替代人类,而应考虑人机共处,通过有意识的引导和治理,促进两者和谐共生。这意味着AI的发展需要更多地考虑人类的价值观和伦理原则,而不是单纯追求技术性能的提升。
例如,在招聘领域,AI系统的设计应该考虑到公平性和透明度,避免对特定群体的歧视。这可能需要对AI算法进行调整,使其在评估简历时更加关注求职者的能力和经验,而不是受制于名字、性别或种族等外在因素。同时,AI系统应该能够解释其决策过程,以便人类招聘者能够理解和审查AI的建议。
AI治理:国际社会的共同努力
面对AI带来的挑战,国际社会已经开始采取行动。联合国秘书长高级别人工智能咨询机构发布了《为人类治理人工智能》最终报告,呼吁各国政府和利益攸关方携手治理人工智能,紧跟人工智能的发展步伐,以促进发展并保护所有人权。
然而,AI治理仍面临诸多挑战。2023年,各国在AI监管方面取得了一些进展,但各国的AI治理思路仍存在明显差异。例如,美国采取了一种去中心化、针对具体行业、非强制性的监管方式,而欧盟则采取了一种全面、横向、基于风险的监管方式。这些差异给全球AI治理合作带来了挑战。
为了应对这些挑战,国际社会需要加强合作,共同制定AI治理标准和最佳实践。同时,也需要关注发展中国家的需求和利益,帮助它们加强AI技术的培训和应用推广。只有通过全球范围内的共同努力,才能确保AI技术的发展既推动创新,又符合人类的价值观和伦理原则。
结语:AI发展需要平衡创新与治理
AI与人类的关系正处于一个关键的转折点。一方面,AI技术的快速发展为社会带来了前所未有的机遇;另一方面,AI也带来了一系列社会问题和挑战。面对这些挑战,我们需要平衡创新与治理,既要鼓励AI技术的发展,又要确保其符合人类的价值观和伦理原则。只有这样,AI才能真正成为人类的伙伴,而不是威胁。