善用AI “清朗”网络生态空间
善用AI “清朗”网络生态空间
近日,中央网信办发布了2025年"清朗"系列专项行动整治重点,明确提出整治AI技术滥用乱象。随着AI技术的快速发展,网络谣言的传播呈现出新的特征和挑战。本文将探讨AI谣言的特点、危害以及应对策略。
AI谣言的新特征与挑战
随着AI技术进一步发展和应用,人们现在不得不去面对一个全新的问题,就是当下生成式AI正在重塑信息网络传播的生态。
在AI技术的加持下,网络谣言的发展呈现出了一些新的特征:
- 空间上:AI谣言可以做到分平台、分渠道、分时段,而且是分媒介的定制化的生成和发布,跨平台影响力更大;
- 速度上:AI谣言由于其低廉的成本,可以做到短时间内的成倍率的传播,辟谣难度大大增加;
- 结构上:AI谣言本身自带自我学习和自我强化的特性,彼此交叉、共振与放大,会加剧AI幻觉,令谣言本身更加显得无懈可击;
- 效果上:AI谣言模糊程度越来越低,越来越清晰,显得非常逼真,破坏性将成倍增加。
清华大学新闻与传播学院副教授陆洪磊研究认为,AI谣言之所以传播力如此强大,本质上还是遵循了这样的传播链条:语境适宜+主体持续+情绪投射+治理困境。现在生产端有了"工业化造谣"这样的新现象,传播链上人们也遭遇到了"情感劫持",加上AI谣言自我迭代的"进化危机",三重危机的夹攻之下,使得传统辟谣手段在这种新形势下变得难以招架。
四位一体的应对策略
对此,陆洪磊提出,应对AI谣言带来的治理困境,需要构建一个"四位一体"的防御工事,即将"内容治理制度、内容审核、辟谣教育、内外联动"一并纳入AI谣言的识别及治理当中。
- 首选:需要在解构AI谣言生产语境方面做一些建设,尤其是内容治理的制度性建设,包括搭建全题材谣言的知识库,对于新发的虚假谣言内容进行前置拦截。
- 其次:是遏制造谣主体持续传播。一方面,未来需要不断加强机器识别能力,完成低质AI模型,并持续迭代,从而减少或禁止分发。另一方面加强人工审核,尤其是培养专业领域的专业审核人员,收严对AI生成内容的审核力度。同时可以上线"AI 创作"标签,帮助用户鉴别AI的内容,保持理性思考。
- 再次:是阻断谣言情绪传播过程中,要加强辟谣的教育,提升公众的"数字免疫力"。
- 最后:是构筑一个协同治理的免疫系统。AI谣言治理从来都是很难依靠单一力量来完成,它需要联动内外部建立谣言线索互通机制,和监管部门达成紧密的合作。
"在真相与谎言的赛跑中,没有人是旁观者。" 陆洪磊表示,在这场关乎数字文明未来的战役中,希望大家携手前行,共同书写答案。
法治引领下的多元共治
AI是一把双刃剑。AI虚假谣言层出不穷,增加了甄别和治理难度,加快了谣言的传播速度。但同时AI技术也是一个新工具,在谣言内容识别、路径追踪和自动化辟谣等方面可以"用魔法打败魔法"。
北京师范大学法学院院长、教授梁迎修指出,网络谣言治理过程中,法律是一个非常有效的手段。在宪法、刑法、民法典、治安管理处罚法以及网络安全法等法律法规中,都对网络谣言的治理提供了充分的规范性依据。
然而,实际运用法律手段治理网络谣言也面临着诸多挑战。梁迎修教授建议从四个方面开展治理:
- 立法:提高立法的科学性,加大惩罚惩处的力度。
- 执法:严格执法,定期开展净网行动,产生威慑力。
- 司法:法院审理案件要坚持良好的价值导向。
- 守法:做好网络普法,加强网民法律教育。
作为内容资讯平台,今日头条有责任、有义务让用户看到真实、有用的信息。2025年,该平台将继续把虚假谣言和同质化治理、黑灰产管控及作者教育等方面作为工作重点。
网络空间是亿万民众共同的精神家园。网络生态的天朗气清需要网络技术的升级迭代,需要平台的严加治理,需要实现生态协同,也必须在法治轨道上健康运行,才能持续净化信息内容、规范功能服务,确保平台治理实效,推动网络生态持续向好。