问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

复旦大学举办国际学术会议:全球专家共议人工智能伦理未来

创作时间:
2025-01-22 19:32:13
作者:
@小白创作中心

复旦大学举办国际学术会议:全球专家共议人工智能伦理未来

4月25日至26日,复旦大学主办的“人工智能伦理的跨文化对话”国际学术会议在上海举行。来自全球各地的专家学者齐聚一堂,围绕人工智能伦理问题展开深入探讨,为应对这一全球性挑战贡献智慧和力量。

01

全球共识与主体性危机

在会议中,全球学者普遍关注人工智能伦理问题,包括系统的透明度和可解释性、算法公平性与反偏见、对人类自主性和自由意志的潜在威胁,以及在武器化和军事应用中的伦理考量等。

奥地利维也纳大学的马克·考科尔伯格教授指出,人工智能的发展需要在不同文化间建立沟通的桥梁,以促进共同善的实现。他认为,AI技术的伦理考量应超越单一文化视角,寻求跨文化的全球共识。

复旦大学徐英瑾教授从儒家思想出发,探讨了古代中国社会与政治结构对当代人工智能治理的启示。他提出,结合小数据技术和区块链可以有效应对人口老龄化背景下的信息伦理挑战。

德国达姆施塔特理工大学的阿尔弗雷德·诺德曼教授则关注ChatGPT等生成式AI对作者身份的挑战。他认为,新的价值观和主体性在人机互动中被凸显,AI生成内容的不确定性引发了对“作者”概念的重新思考。

02

人机交互与价值融合

面对人工智能带来的技术封锁、数据垄断、文化歧视等问题,与会专家们普遍认为,需要通过跨文化价值融合来化解危机。人工智能的讨论已从单纯的数据处理转向了更深层次的人机交互与跨文化理解。

俄罗斯彼尔姆国家研究型理工大学的白雪副教授指出,人机交互不仅涉及技术应用,还触及价值观的冲突与融合。特别是在老龄化社会背景下,关怀机器人的开发设计需要通过不同文化的互相理解来探索最佳方案。

南开大学贾向桐教授提出,在现有的AI设计四大基本原则(自主、有利、不伤害、公正)之外,还应增加可解释性原则。上海人工智能实验室的瞿晶晶副研究员则通过医患关系案例,展示了合理的AI设计如何增进人类福祉。

03

价值对齐的可能性

“价值对齐”是会议讨论的另一个重要议题。它指的是将人类价值观和目标编码到大型语言模型的设计与使用中,使其尽可能有用、安全和可靠,不对人类的价值和权利造成干扰和伤害。

哈尔滨工业大学的赵妍妍教授指出,尽管人类价值观可以被分类,但其复杂性使得判断对错变得困难。她强调了大型语言模型在理解世界知识和做出判断方面的潜力,同时也指出了伦理专家参与数据集构建的重要性。

德国达姆施塔特工业大学的安德列斯·卡明斯基教授则探讨了AI系统的“实用不透明性”问题。他认为,对于复杂的神经网络模型,我们难以确定其输出是否符合预期,这为价值对齐带来了挑战。

04

未来方向与政策建议

会议专家普遍认为,构建负责任的人工智能生态系统需要从多个方面入手:

  1. 立法与监管:需要建立完善的法律法规体系,明确AI系统的责任归属和使用边界。

  2. 透明度提升:提高AI系统的可解释性和透明度,使人们能够理解其决策过程。

  3. 跨学科合作:促进技术、伦理、法律等多学科的交叉融合,共同应对AI带来的挑战。

  4. 公众教育:提高公众对人工智能伦理问题的认识,培养具备伦理意识的技术人才。

  5. 国际合作:建立跨国界的交流与合作机制,共同制定全球性的AI伦理准则。

此次会议不仅深化了人们对人工智能伦理问题的认识,更为未来的技术发展指明了方向。在全球化背景下,跨文化的对话与合作将成为推动人工智能健康发展的重要力量。

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号