问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

加强科技伦理治理的全球合作

创作时间:
作者:
@小白创作中心

加强科技伦理治理的全球合作

引用
腾讯
1.
https://new.qq.com/rain/a/20241009A076QA00

在科技迅猛发展的浪潮中,伦理航标尤为重要,它不仅指引着创新的方向,更是衡量一个国家科技软实力的关键。近日,第十七届浦江创新论坛在上海开幕。期间,由复旦大学承办的浦江创新论坛科技伦理专题论坛和浦江创新论坛的分论坛“中瑞对话:人工智能和伦理”在张江科学会堂举行。与会的国内外专家就前沿科技的进步,尤其是人工智能和生物技术的飞速发展所带来的伦理挑战及其应对展开讨论,为实现科技创新与伦理责任的平衡贡献智慧和力量。

当前时代,前沿科技在消除不确定性的同时,也会带来新的不确定性。人工智能、大数据、基因编辑等新兴科技的高速发展在提高人们生活质量的同时也带来了层出不穷的科技伦理挑战。如何在追求创新“颠覆性”的同时确保创新“负责任”成为了全球学者关注的话题。

中国社会科学院段伟文研究员认为,当今时代科技发展给全人类带来了愈发深刻的影响,随之而来的是不可逆的不确定性和风险。因此,如何提升科研机构、科技人员和相关的产业行业对科技伦理风险的预见性和认知能力,如何增强其伦理风险意识,已成为科技发展遭遇的主要挑战。与之形成对照的是清华大学薛澜教授的观点,他认为当前最大的挑战在于社会层面的伦理思考的形成。伦理不仅仅在于专家制定和强化规则,同时也要考虑社会观念的变化所带来的影响,因此,促进社会层面的伦理思考对于推进科技的负责任创新非常重要。

中国新一代人工智能发展战略研究院执行院长龚克教授则强调了人才培养在科技负责任创新中的重要性。他认为可以将科技创新和伦理责任看成两种结合起来的不同力量的互动。为了更好地达成两种力量的动态平衡需要培养更多融合伦理底色的具备创新意识和创新能力的人才。

在探讨科技的负责任创新这一话题时,北京协和医学院翟晓梅教授认为,科技伦理是科技共同体本身具有的内在要求。创新并不必然意味着价值层面上的好,而是意味着研究人员责任重大,如何应对创新与价值之间的张力是我们当前面对的一大挑战,需要我们凝聚智慧,实施多样化的战略。荷兰马斯特里赫特大学桑德斯教授认为,在科技的创新过程中存在很多正向的刺激和激励,这些因素导致了如何平衡科技创新和伦理责任这一问题的复杂性。他呼吁保障并加强伦理规范建设和道德训练机制,以提升社会对科技发展的信任度。

针对在价值多元化的时代中形成共识的困难,复旦大学王国豫教授指出,如何在包容的共识基础上,使各个参与主体既有负责任创新的意识,又能将这种意识落实到实践中去,进而达到知与行之间的统一需要所有人的重视。这一观点引发了瑞士苏黎世大学王宁高级研究员进一步的补充。她指出,当前最大的挑战在于如何有效地制定伦理规范的理论框架,以使其对应用场景有更切实可行的指导意义。因为无论处在怎样的价值体系背景下,我们最终都要面对如何将这些价值体系运用到创新的开发、执行和应用的过程当中这个关键问题。

在当下各个领域的科技创新中,AI的迅猛发展尤为引人注目。发展科技的根本目的是增进人的福祉,“AI for good”(人工智能向善)已经成为国际社会对于AI 发展的共识与愿景。与会专家学者就这一愿景的可能性及其实现途径展开了讨论。

龚克教授认为,AI与人类价值的协同发展是完全可能的。他引用第78届联合国大会通过的决议强调,人工智能应当是安全、可靠和值得信赖的,并且其目标是促进可持续发展。要实现“为AI立心”,关键在于将人类的伦理和价值观植入AI系统,其中人的伦理意识和行为能力发挥着至关重要的作用。

在人工智能的应用方面,瑞士苏黎世联邦理工学院帕特里克·丁格利(Patrick Tinguely)高级研究员持比较乐观的态度。他指出,AI虽然可以极大提升工作和生产的效率,但并不能完全取代人类。人类可以通过对AI的设计使其成为更有效的助力,同时也需要注意价值对齐和伦理约束,在与AI的合作中实现负责任应用。AI与人类价值的协同发展需要法律和伦理等各方面的保障。薛澜教授从治理的角度强调了“敏捷治理”的重要性,认为在AI技术快速发展的背景下,政府和社会需要灵活应对不同治理机制之间的矛盾,以确保AI的发展能够真正服务于人类福祉。王宁高级研究员认为AI的发展必须与人类的核心价值观相结合,并以增进人类的整体利益为目标。从技术创新的角度来看,进行具有价值敏感度的创新有其必要性和可行性。颠覆性科技给人类、社会和自然带来颠覆性影响的同时,也伴随着颠覆性概念的产生。而出于对概念应用的精准度以及适配度的不确定性的考虑,我们有必要重视差异和变化,进行具有价值敏感度的创新,从社会、政治、伦理等多重维度制定方案以减少道德败坏。

AI和人类价值的协同进化需要法律规范的保障,瑞士洛桑大学亚什·拉吉·什雷斯塔(Yash Raj Shrestha)教授以欧盟人工智能法案的发布为例,认为相应法案的颁布提醒了人工智能技术的两面性,应从组织和学校等环节进行人工智能相关教育以避免相应的风险。同时,AI技术仍处于发展变化当中,AI应用的相关法案制定应根据AI技术的发展进行动态调整。

上海人工智能实验室瞿晶晶副研究员从当前人工智能应用中发生的舆论事件出发,认为人工智能技术在社会中的应用需要经过论证。她以Epitome平台为例,指出人工智能是一项与社会科学密不可分的科学技术,应当重视人工智能的社会主体性。引入社会科学、实验科学的理论视角和手段,将社会科学实验的优势逻辑和人工智能大模型结合起来,有助于实现AI技术和社会科学的双赢。复旦大学尹洁教授同样认为,专家学者需要基于作为工具和技术的人工智能本身具有两面性的共识,关注不同文化背景、不同专业领域人群之间的差异,通过多元化、跨领域的视角寻求科技伦理框架的建构和具体伦理问题的解决。同时,她强调科技伦理的研究需要找到更好的方法论,把伦理问题和科技伦理理论连接起来,实现从伦理原则向问题应用的转化。

上海人工智能实验室孟令宇研究员探讨了随着大型语言模型(LLM)普及,对抗性提示词攻击所带来的虚假信息传播、煽动言论等安全挑战。基于分析,他提出构建一套既能帮助研究人员和开发者提高AI模型的安全性,又能提高公众对这类风险认知的平衡框架,探索普通公众可理解的增强AI模型可解释性和安全性的新方法。复旦大学马兴军研究员则从AI设计的角度指出,人工智能和机器学习的研究面临着如何提高可解释性和稳定性以及如何减少偏见和降低风险的挑战。提升稳定性和安全性要求AI在被输入未被设想的信息时依旧有稳定的输出,而提高可解释性和减少偏见有助于提升公众对人工智能的理解和信任。

近年来,除了人工智能蓬勃发展,基因编辑、合成生物等生物技术也得以快速发展与应用,同时带来了新的伦理问题和责任问题,我们理应对生物技术的发展和应用设立明确的道德边界。在促进全人类福祉的目标指引下,这一设立边界的过程更需要国际社会的共同努力。

针对基因编辑等前沿医学技术的迅速发展,翟晓梅教授强调,必须建立明确的伦理指导原则以确保科学研究的进展与伦理考量协同发展,生物医学技术发展与转化的道德边界应由科学界、伦理学界、公众和政策制定者共同确定,这就是伦理治理的含义。中国在制定《人类基因组编辑研究伦理指引》方面的努力,体现了国家在生物医学技术伦理治理中的积极作用,回应了各界对国际和国内人类基因组编辑的关切。她呼吁国际社会加强合作,共同推动生物医学技术的健康发展。基于人工智能在生物智能制造领域的应用,苏州大学马诗雯博士指出,人工智能在合成生物领域发挥重要作用的同时,也带来了对生物安全的极大威胁。而应对合成生物技术的治理挑战需要对其风险的敏锐前瞻和有效的限制手段,例如美国曾出台的“核酸合成筛查框架”正是该领域中的一种尝试。

当前,知识产权在生物技术治理中的作用日益重要。对知识产权进行合理配置,能够促进生物技术的创新与应用,但同时也需要设定伦理边界以防止技术被滥用。桑德斯教授指出,国际社会应在知识产权与伦理规范之间找到平衡,确保生物技术的发展能够服务于可持续发展目标,造福全人类。他呼吁各国在这一领域加强对话与合作,努力建立共同的伦理标准。

生物技术的道德边界不仅需要科学和法律的支持,还需要公众的参与和监督。王国豫教授进一步补充道,公众对生物技术的认知和态度将直接影响其发展方向,因此开展广泛的公众教育和提升公众参与度至关重要。她同样呼吁国际社会建立有效的沟通机制,促进各国在生物技术伦理治理方面的协同合作,以应对全球性挑战。

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号