人机共生:AI伦理引发热议
人机共生:AI伦理引发热议
近年来,“人机共生”已成为科技界的热词,人工智能(AI)技术的快速发展不仅改变了我们的生活方式,还引发了关于伦理和社会结构的广泛讨论。人们越来越关注AI在决策过程中的公平性、透明度及其对个人隐私的影响。与此同时,不同社会群体对AI的接受程度和理解差异,进一步凸显了实现社会公平的重要性。如何在推动技术创新的同时,确保伦理观念与时俱进,成为了当下亟待解决的问题。这场关于AI伦理的大讨论,正逐步塑造着未来的社会形态。
AI伦理问题引发全球关注
2024年4月,复旦大学举办的“人工智能伦理的跨文化对话”国际学术会议上,全球专家学者汇聚一堂,就人工智能所带来的种种伦理挑战展开了深入探讨。与会者不仅在学理层面探讨人工智能伦理,更就技术如何更好地服务于人类、维护人类价值和尊严提出了见解,为应对人类面临的这一重大挑战贡献出智慧和力量。
奥地利维也纳大学马克·考科尔伯格教授认为,人工智能的发展需要在不同文化间建立沟通的桥梁,以促进共同善(common good)的实现。他强调,AI技术的伦理考量应超越民族国家立场的单一文化视角,进而寻求超越国别、跨文化的全球共识。
然而,跨文化的人工智能设计仍然面临底层的机制难题。德国达姆施塔特理工大学阿尔弗雷德·诺德曼教授探讨了ChatGPT等生成式AI对作者身份的挑战,指出新的价值观和主体性在人机互动中被凸显。在中国,社会科学院研究员段伟文对于生成式AI的输出内容的不可控性提供了巧妙的比喻:“随机的鹦鹉”。他指出,随着AI的发展,AI不仅成为知识机器,还成为了道德指导,尤其是在大型语言模型(LLMs)的发展下,AI开始模仿人类语言,与社会政治环境相匹配。AI依赖于计算,而人类智能则基于共识和经验。AI的发展不应以超越人类智能为目标,应关注其对社会的影响,包括可能形成的反人类技术系统。人类则需要发展新的能力以适应这一变化。
AI伦理的具体案例
AI伦理问题并非空泛的理论讨论,而是已经体现在具体的应用场景中。例如,德州仪器开发的人工智能审查系统,虽然旨在检测员工的不当行为,但这种自动化的检测引发了隐私问题,因为员工的私人信息可能被无意泄露。无人驾驶车辆在遇到危险情况时的道德决策也是一个难题,例如在撞人的情况下,车辆应该优先保护乘客还是行人?脸部识别技术虽然广泛应用于安全、监控和身份验证等领域,但也可能侵犯个人隐私,因为它可以被用来跟踪个人的行踪、监控个人的行为和识别个人的身份。此外,机器学习算法可能会产生歧视性结果,因为它们是根据历史数据进行训练的。如果历史数据中存在歧视性,那么算法就会反映这种歧视性,并且在未来的决策中会产生歧视性结果。AI作品的版权问题也日益凸显,因为人工智能可以创造出音乐、绘画和文学作品,但这些作品涉及版权问题,因为人工智能并没有真正的创造力,它只是模仿了已有的作品。因此,人工智能作品的知识产权归属问题需要得到解决。
AI伦理的社会影响
杜克大学的计算机科学家辛西娅·鲁丁将AI比作一列失控的火车,强调了对技术监管的迫切需求。她指出,技术公司在追求利润的同时,往往忽视了其产品对社会的影响,尤其是在信息传播方面。AI技术的透明度是确保其负责任使用的关键,只有通过清晰的数据使用和算法行为的说明,才能建立起用户和社会对AI系统的信任。
在全球范围内,各国在AI监管方面的进展不一。以印度和欧盟为例,印度政府已经意识到AI技术的潜在风险,并开始制定相关指导方针。欧盟的AI法案正在接近完成,计划对高风险AI应用实施严格的监管要求。美国的监管方式则相对分散,尽管拜登政府已发布了一项关于AI的行政命令,但整体框架仍在探索中。
AI在医疗领域的应用展现出巨大潜力,但也面临算法偏见和安全性等挑战。透明度被视为建立用户信任的关键,确保AI系统的可解释性和数据治理至关重要。未来,平衡技术创新与社会责任将是重要任务,只有通过共同努力,才能确保AI技术的负责任发展,最大限度地降低潜在风险。
国际AI伦理政策与指南
世界卫生组织(WHO)发布了关于多模态大模型(LMMs)伦理和管理问题的新指导文件。多模态大模型是可应用于卫生保健领域的飞速发展的生成式人工智能技术。指导文件列出了40多项建议,以确保适当使用多模态大模型增进和维护人民健康。多模态大模型可以接受多种输入数据(如文本、视频和图像)并生成多种产出,其独特之处在于能够模仿人类交流方式,并能够执行未予明确编程的任务。
世卫组织首席科学家Jeremy Farrar博士强调,生成式人工智能技术可以改善卫生保健服务,但前提是开发、监管和使用这些技术者必须能够识别并充分顾及相关风险。需要有透明的信息和政策来管理多模态大模型的设计、开发和使用,以实现更好的健康结果,并克服持续存在的健康不公平现象。
AI伦理的未来展望
联合国《2030年可持续发展议程》强调“人类、地球、繁荣、和平与伙伴”,为全球提供了从传统发展模式向可持续发展模式转变的范式。2024年9月联合国未来峰会将进一步讨论人工智能、数字经济与可持续发展的关系。针对这样的背景,AI与全球可持续发展展望报告,将分析AI及大模型技术革新对对全球可持续发展的挑战与机遇。
在21世纪,气候变化、AI技术进步与地缘政治的交融,正在深刻地重塑世界新格局,这将给我们带来什么挑战与机遇?如何构建一个跨学科,跨界的综合框架来支持分析与战略规划?
AI与可持续发展展望旨在分析和探索“AI与可持续发展框架”关键层面,为新世纪格局的科技、社会、经济与政治叙事提供框架。从科技企业AI技术与产业领导的未来人机交互界面(海平面),从而提供产品抓手来影响世界的关键层面,衍生到“海平面”之下主导AI及机器世界的基础设施与基础协议层面,以及海平面之上影响人思考与行为模式的各个层面,共计8个层面,下面由底层到顶层简要分析:
图1 AI与可持续发展:人机共生的研究与分析框架
AI与气候变化及全球碳中和层面:“碳中和”能否通过社会、经济和政治结构成为一项关键原则?这个层面强调了东西方之间新的核心共识,强调了碳中和的愿景,并强调了技术和价值观之间的关键交汇点。这个概念强调将环境和气候风险整合到新数字科技经济体系中,以促进可持续发展,减少气候变化的影响,并确保环境、经济和社会的协调发展。AI及大模型支持碳交易、碳捕获和碳储存等新模式是实现这一目标的关键工具。
AI与信息和通信技术基础设施层面:信息通信技术如何涵盖技术设计和价值系统设计之间的跨学科研究,特别是在地缘政治中的新战略定位?信息通信技术构成了现代地理景观的基石。这个层面将技术堆栈分为技术基础设施、网络层、应用层和数据流。这些元素在信息传播、创新与社会变革中发挥着关键作用,但也在道德和隐私方面提出了挑战。
AI与世界数字ID系统和协议层面:人机共生世界的基本问题是,我们如何在人类和人工智能之间进行区分,并建立一个全球数字身份系统?在这个层面上,重点是“世界ID和基础协议”的概念,通过标识、识别和数据管理,以及可编程的金融技术,特别是与碳中和逻辑集成的可编程金融系统,将强调人工智能时代的新工作模式与分配制度。该框架强调了隐私保护的必要性,并可能通过人工智能产业收益实验全民基本收入(UBI)的可能性?
AI与数据管理和资源分配层面:技术协议设计如何深刻影响数据的定义与资源分配?定义和使用数据本身结构将在资源分配中做出决定作用?数据的定义、使用和共享或将决定数据产生的价值如何分配给不同的利益相关者,包括个人、企业和社会组织等。因此,数据管理不仅需要考虑个人隐私权,还需要考虑资源和公共管理,以确保公平性和可持续性。数据创造的商业和社会价值决定了其作为未来资源分配的关键因素的重要性。无论是在物质层面,如土地和自然资源,还是在虚拟层面,包括数据,它们都被认为是最重要的生产资料,需要高度重视数据和资源的重要性。
AI与人机交互界面层,及“海平面”:作为一个强大的工具,人工智能如何在实现东西方之间新的全球共识方面发挥关键作用?这个层面侧重于与“人工智能与人的需求”的技术设计与产品的相关的问题,是当下绝大多数数字科技企业的发展方向。因此,需要一种平衡的方法来充分利用人工智能的潜力来促进社会的整体利益,同时解决透明度、公平性、教育和监管等问题。这个场面需要深入探索关键领域,如技术设计、人工智能技术的应用、决策、道德、教育和监管。
AI与国家治理层面:AI及数字技术的兴起对传统边界和国家治理可能带来了哪些挑战?在过去与现在,由于非政府组织、跨国公司等非国家实体能够推动超越国家范围的变革和治理。在这一背景下,全球治理由上述非国家实体共同参与,作为国家机构的补充。同时AI及数字技术和网络,让个人和一些组织能够参与到构建、参与并支持其建立的虚拟机构或“云国家”中。这些虚拟机构不依赖于地理位置,而是基于在线通信和数字协议。个人和机构根据自己的价值观选择加入这些虚拟国家,并通过区块链等技术实现自治和治理。这种观点挑战了传统国家主权的概念,将治理下放至个人和社区层面。
结语
AI伦理问题的复杂性要求我们采取谨慎乐观的态度。正如Dario Amodei所说:“AI是一个复杂但充满潜力的工具,它的未来由我们如何使用它决定。”面对AI带来的挑战,我们需要建立更强大的治理框架,提高透明度,鼓励公众参与,并确保AI的发展符合伦理标准。只有这样,我们才能充分利用AI的潜力,同时避免其潜在风险,真正实现人机共生的美好愿景。