吴文峻:生成式人工智能的技术局限和伦理风险
吴文峻:生成式人工智能的技术局限和伦理风险
生成式人工智能(AI)凭借其多模态和通用化能力,正在改变多个行业的工作方式。然而,随着技术的快速发展,其内在局限性和伦理风险也日益凸显。本文将深入探讨生成式AI的技术局限和面临的挑战。
生成式AI的技术优势
生成式AI的基本形态是通过训练大规模模型来学习人类的语言、图像和视频等数据模式。与传统AI局限于特定功能不同,生成式AI更注重创造性内容的生成,展现出文字对话、文档撰写、代码编写、图片创意、语音合成和视频生成等多样化能力。
这种技术综合了60多年来AI研究的成果,特别是近10年深度学习的突破。它能够从海量数据中学习人类知识,记忆文本、语音、图像、视频等内在规律,并通过多模态数据融合机制,实现与人类的自然交互。
技术局限性
尽管生成式AI展现出强大的能力,但其内在局限性也日益明显:
认知理解和逻辑推理能力不足:大模型容易产生幻觉现象,输出事实性错误的内容。同时,由于其基于概率统计的生成机制,难以完成复杂的逻辑推理任务。
规模提升效益瓶颈:虽然扩大模型规模可以提升性能,但这种做法面临技术和经济成本的双重挑战。目前最大模型GPT-4的参数规模已达到万亿级别,需要大量GPU资源。预计到2028年,互联网公共数据资源将耗尽,数据危机不可避免。
可持续性问题:单纯依赖扩大模型规模来实现通用AI的路线不可持续。未来需要采取通专结合的技术路线,即在基座大模型的基础上开发专业小模型,以适应不同领域的具体需求。
伦理安全风险
随着生成式AI的广泛应用,相关的伦理安全风险也日益突出:
安全护栏缺失:大模型的“算法黑箱”特征使其容易受到攻击,输出敏感或价值观错误的内容。
深度合成内容治理难题:AI生成的内容真假难辨,为网络诈骗和虚假信息传播提供了新的手段。需要建立内容标识、水印验证等溯源管理机制。
法律治理挑战:国内外都在积极制定相关法律法规,采用分级化敏捷治理模式,平衡技术创新与有效治理的关系。
作者简介
吴文峻,北京航空航天大学教授,博士生导师,主持国家自然基金重点、国家重点研发计划30多项科研课题,发表论文180多篇,出版中英文专著两部,担任国家科技创新2030新一代人工智能重大项目总体组专家,国务院学位委员会智能科学与技术学科评议组专家,国家人工智能标准总体组副组长。主要研究方向包括:群体智能、大规模在线教育、AI for Science等。