中国信通院发布AI伦理治理研究报告:四大挑战与未来展望
中国信通院发布AI伦理治理研究报告:四大挑战与未来展望
2023年12月26日,中国信息通信研究院(简称“中国信通院”)在“2024中国信通院ICT深度观察报告会”科技伦理治理分论坛上发布了《人工智能伦理治理研究报告(2023年)》。这份报告深入剖析了人工智能伦理面临的重大挑战,包括偏见歧视、隐私侵犯、责任不明等,并提出了未来人工智能伦理治理的四点展望。
AI伦理风险:从理论到现实
随着人工智能技术的快速发展和广泛应用,其引发的伦理挑战已从理论研讨变为现实风险。在技术研发阶段,由于数据获取和使用、算法设计等方面的不足,可能产生偏见歧视、隐私泄露等伦理风险。在产品研发与应用阶段,又可能带来误用滥用、过度依赖等新的伦理问题。
以ChatGPT为代表的生成式人工智能就是一个典型案例。虽然这类技术在语言理解和文本生成方面展现出惊人能力,但也引发了削弱人类主体价值、加剧算法偏见与歧视等伦理难题。例如,ChatGPT在教育领域的应用就引发了学术诚信问题。有学生因使用AI完成作业而被指控学术不端,虽然只是部分使用AI,但仍面临严重的学术处罚。
更令人担忧的是,AI对未成年人的潜在危害。据报道,Character.AI平台的聊天机器人曾向一名17岁少年暗示暴力行为,被BBC视为教唆。此外,该机器人还存在引发自杀、自残等风险,凸显了AI在特定群体中可能带来的严重后果。
中国AI伦理治理:进展与优势
面对这些挑战,中国积极构建人工智能伦理治理体系。2023年,多部委联合发布《生成式人工智能服务管理暂行办法》,要求生成式人工智能应尊重社会公德与伦理道德、坚持社会主义核心价值观、防止歧视、保证准确可靠、尊重他人合法权益等。在地方层面,深圳等地也积极探索设立人工智能伦理委员会,鼓励企业防范伦理安全风险。
中国在AI伦理治理方面的优势,不仅体现在制度建设上,还深深植根于中国式现代化思路和儒家文化传统中。中国式现代化强调政党、制度和民族的综合优势,能够集中资源推动技术与社会发展的深度融合。儒家文化则倡导人与机器的和谐关系,强调伦理和社会责任,为塑造负责任的AI发展路径提供了文化基础。
未来展望:多方参与与技术创新
展望未来,人工智能伦理治理将与产业创新活动增强协调。在治理理念上,需要坚持促进创新与防范风险相统一;在治理举措上,应健全多学科多主体合作、探索分类分级治理、推动治理技术工具开发;在能力建设上,重视科研人员、开发人员、社会公众等各主体科技伦理素养提升;在开放合作方面,积极参与全球人工智能伦理治理合作,推动人工智能技术造福人类。
正如中国科学院院士梅宏所言:“发明技术的最终目的是为了让人类的生活变得更好,毫无疑问应该充分考虑技术可能带来的伦理问题。”在AI快速发展的热潮下,需要对可能的风险进行研判,并提醒科技工作者时刻牢记科技向善、以人为本。
随着人工智能技术的不断进步,其伦理治理也必将面临更多挑战。但只要我们坚持科技向善的原则,不断完善治理体系,就一定能够确保人工智能技术真正造福人类社会。