2024年中国网络内容治理10个典型案例与热议事件
2024年中国网络内容治理10个典型案例与热议事件
2024年,中国网络内容治理领域发生了多起引人关注的典型案例和热议事件。从全国首例AI生成声音侵权案到百万粉丝自媒体博主离婚分割账户事件,这些案例不仅反映了技术发展带来的新挑战,也为未来的网络内容治理提供了经验借鉴。
一、全国首例AI生成声音侵权案
2024年4月,北京互联网法院一审开庭宣判全国首例AI生成声音人格权侵权案,明确认定在具备可识别性的前提下,自然人声音权益的保护范围可及于AI生成声音。AI生成声音可识别性的认定应综合考虑行为人使用情况,并以相关领域普通听众能否识别作为判断标准。我国《民法典》将人格权独立成编,首次以立法形式将保护“声音”写入,明确参照适用肖像权的形式保护自然人的声音,体现了对人格权益全面尊重和保护的立法精神。值得注意的是,声音作为一种人格权益,具有人身专属性,任何自然人的声音均应受到法律的保护,对录音制品的授权并不意味着对声音AI化的授权,未经权利人许可,擅自使用或许可他人使用录音制品中的声音构成侵权。
二、AI “张文宏”带货虚假视频事件
2024年12月,一段由“张文宏”出镜带货的视频受到网友和媒体关注,视频中其反复介绍一款蛋白棒产品,后经核实,该视频是由AI深度合成伪造的。张文宏本人回应称,这样的卖货账号不止一个,且一直在变,他多次向平台投诉但屡禁不绝。后续发布该内容的账号清空了视频,但商品橱窗内蛋白棒售卖页面显示已售出 1266 件。
此类通过“拟声”“换脸”技术诱导消费、借钱或投资的现象,已成为泛滥于互联网的新型诈骗手段,并对名人的人身权利——包括姓名权、肖像权、声音权等造成侵害;此外还涉嫌侵犯视频原拍摄者的录像制作者权。我国在对深度合成技术实行从制作到传播的多环节监管,显式标识是识别深度合成内容的关键途径。从《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》到《人工智能生成合成内容标识办法(征求意见稿)》,对深度合成服务提供者显式标识的要求逐步强化,服务提供者应承担起识别深度合成内容第一道责任。而网络信息传播平台在内容传播过程中,应做好二次审核,确保抵达公众的深度合成内容均有明确标识。此外,投诉、举报是被侵权人及用户重要的维权、监督渠道,平台应做好投诉渠道建设,重视用户的维权诉求。同样,辨别深度合成内容作为公众媒介素养的重要组成部分应受到重视,加大宣传教育力度,特别是向老年人等识别能力相对不高的群体普及深度合成内容的常见特征与识别方法。
三、用户反向驯化算法对抗“大数据杀熟”事件
2024年12月,多家媒体报道网络用户正采用修改个人信息、评论区留言,删除浏览器记录,反复重新安装应用程序等各种方式,尝试对抗平台的“大数据杀熟”行为,“反向”驯化算法。此次事件反映了用户对公平交易的基本诉求,也说明公众对算法的认知和数字素养正在不断提高。但是绝大部分用户尝试的方法很难有效,并且多数“杀熟”行为难以发现。
“大数据杀熟”顽疾存在已久,近年来手段不断迭代出新。解决“大数据杀熟”,规制算法权力,不仅需要对平台和算法的运行进行合理限制,同时也要通过权力的合理配置来对抗权力滥用。2024年7月1日起实施的《消费者权益保护法实施条例》第九条第二款明确规定,经营者不得在消费者不知情的情况下,对同一商品或者服务在同等交易条件下设置不同的价格或者收费标准,并要求经营者不得过度收集消费者信息。11月24日, “清朗·网络平台算法问题典型治理”专项行动强调,网络平台严禁利用算法实施大数据杀熟,应提升销售透明度,客观说明价格调整原因。
四、字节跳动诉前实习生篡改代码攻击大模型案
2024年11月25日,字节跳动起诉前实习生田某某篡改代码攻击公司内部模型训练一案已获北京市海淀区人民法院正式受理。2024 年 6 月至 7 月,田某某在字节跳动集团商业产品与技术部门实习,因对团队资源分配不满,通过编写、篡改代码等形式恶意攻击团队研究项目的模型训练任务,造成资源损耗。字节跳动在 8 月发现后立即与其解除实习协议,并将其行为同步至阳光诚信联盟、企业反舞弊联盟以及其就读学校进行处理。但田某某多次对外否认自己的不当行为,甚至报警称遭到造谣。11 月28日,字节跳动因田某某毫无悔过之意并在互联网发布虚假言论诋毁公司,决定向法院起诉,请求判令田某某赔偿公司侵权损失 800 万元及合理支出 2 万元,并公开赔礼道歉。具有戏剧性的是,田某某在字节跳动实习期间,与团队合作发表了一篇论文,在人工智能顶级会议 NeurIPS 2024 上被评为最佳论文奖。此事引发广泛热议,网友评价不一,有的表示 “实至名归”,也有的表示 “德行败坏者,能力越强,危害越大”。
有技术安全专家称,此事暴露了字节跳动技术训练存在安全管理问题,如未做权限隔离和共用代码审计等,同时也引发了行业对于模型训练安全管理、AI污染、代码投毒的重视和反思。
五、“小学生秦朗巴黎丢作业”事件
2024年4月12日,杭州警方发布通报,“秦朗寒假作业丢巴黎”事件系策划编造。涉案两人自编视频脚本,网购寒假作业,用手机自拍、制作相关视频,并散播至多个网络平台,造成恶劣影响。公安机关已依法对涉案人员及其所在公司做出行政处罚。4月13日,微信、微博、抖音等多平台发布对“Thurman猫一杯”的封号处置公告。“浙江宣传”评论认为,此类网络假新闻为吸引眼球博流量,对“李鬼”新闻就该“人人喊打”。
根据2023年7月中央网信办发布的《关于加强“自媒体”管理的通知》,“自媒体”发布含有虚构情节、剧情演绎的内容,网站平台应当要求其以显著方式标记虚构或演绎标签。从2023年到2024年,网信办针对“自媒体”的清朗专项行动,从整治“自媒体”乱象细化至整治“自媒体”无底线博流量,重点打击传播时事、民生领域虚假信息,滥发“新黄色新闻”等行为。“网红自媒体”如此编造“闹剧”、传递不良信息的行为应引起各方警惕。优质内容生态有赖于管理部门、网络平台、媒体机构的监管识别,也有赖于“自媒体”加强自身责任意识,守住内容生产的道德底线。
六、国内首例虚拟主播“中之人”违约案
网络虚拟主播是新近广受二次元文化爱好者喜爱的偶像形式,“中之人”是二次元虚拟形象“皮套”下的真实演员。2024年3月,国内首例“中之人”违约纠纷的案宣判,当事人史某于2022年9月与苏州MCN机构签订《虚拟主播签约合同》成为“中之人”后,长达3个月未直播。法院判认史某违约事实明显,应承担相应违约赔偿责任。
本案为首例立足于“身份同一性”判决“中之人”违约纠纷的案件。法官指出,“中之人”与MCN共同投入才能塑造虚拟主播形象,在本案中,虚拟形象与史某不具有“身份同一性”,流量贡献度是“身份同一性”的判断标准,是根据虚拟形象价值、形象驱动方式、整体组合直播内容、方式及演出效果等因素具体认定的。在不具有“身份同一性”的情况下,虚拟形象价值贬损应考量制作费用、合同履行期限、采用复用措施路径、复用必要成本等因素综合确定。除价值贬损的直接损失外,违约方还应对MCN机构采取复用措施合理期间的可得利益损失予以赔偿。
七、吴柳芳抖音账号被封事件
2024年11月-12月,短短一个月内,吴柳芳的抖音账号“56学姐(798)”经历了两次封禁。11月22日,体操奥运冠军管晨辰在吴柳芳评论区指责其给体操抹黑,吴柳芳回怼,两人争论迅速引发热议,也让吴柳芳的账号关注度持续攀升。11月26日,吴柳芳抖音账号显示“违反社区规则”被禁止关注。12月1日,账号解禁后粉丝量再次猛涨。12月24日,抖音安全中心发布公告,对“56学姐(798)”等11个账号采取禁言、暂停营利权限、清除因违规行为增长的粉丝等处置措施,并对操纵上述账号多次发布低俗内容吸粉引流的MCN机构“大海星辰”采取限制后台账号管理功能30日处置。
打击色情低俗违规内容本是平台内容治理的常态化环节,但此次事件中处罚政策的反复,却提醒大家关注违规标准、封禁权力等问题。色情低俗的边界如何划定?由谁划定?平台封禁账号的权力如何执行?谁来监督?用户能否申诉?如何申诉?平台应关注对治理规则、违规标准的公开透明,并对违规处置做详尽解释,保证公众知情权。
八、钟睒睒借媒体公开喊话事件
2024年2月底,在娃哈哈创始人宗庆去世后,农夫山泉创始人钟睒睒与宗庆后之间的关系被网友热炒,针对钟睒睒、农夫山泉的谣言持续发酵。3月3日 、5月20日 农夫山泉微信官方账号两次就谣言进行澄清。8月10日,钟睒睒在央视《对话》节目中表示,流量如果是为了获取金钱,用科技手段利用人性的弱点,故意做流量势能,到了一定程度就会有它的破坏性。11月20日,钟睒睒借媒体公开喊话:“敬请今日头条和抖音,不要以所谓的避风港原则,逃避责任,请他们立即删除对我的污蔑言论、图片,停止对一个中国公民的侵害,停止!停止!”
“避风港原则”来自美国1998年颁布的《千禧法数字版权法》,我国在2006年颁布、2013年修订实施的《信息网络传播权保护条例》中认定了四个避风港规定,但这些是否适用于该场景,其中存有多个需要细致认定的环节。但随着钟睒睒的喊话,流量、算法、平台间的关系从幕后被推到台前。11月12日,中央网信办启动的“清朗·网络平台算法典型问题治理”专项行动中,提到要整治同质化推送营造“信息茧房”,严禁推送高度同质化内容诱导用户沉迷,增强算法向上向善服务。这提醒我们算法同质化推送加重谣言、戾气的可能。在允许每一个人发声的同时,也应让每一种声音都尽力抵达关注此事的人群中。
九、豆包大模型搜出个人微信账号事件
“豆包”是字节跳动旗下的一个人工智能工具,提供聊天机器人、写作助手等功能,通过回答用户的各种问题并进行对话。2024年12月,有网友称陌生人在“豆包”APP中输入他的名字和学校后,“豆包”显示了本人微信账号,陌生人凭此联系上了网友本人。对此“豆包”相关负责人回复,网友反馈的情况,是“豆包”基于互联网上公开信息进行搜索和智能整合,此类联系方式通过搜索引擎也能够搜到。目前,“豆包”已对询问个人信息类提示词进行优化,保证即使网上有公开信息的情况下,仍然限制相关信息的露出,做好个人隐私信息的保护。
但该事件引发关注,有两点值得思考:第一,当前以生成式人工智能为代表的技术发展正在模糊数据隐私的已有边界,个人数据“合理使用”适用的条件与细则愈发多样化,模型预训练的数据争议亟需解决。第二,用户对于大模型的使用,素养和规范依然薄弱,用户对人工智能存在“恐怖谷效应”。对于前者,有必要根据《个人信息保护法》《网络数据安全管理条例》等加强处理,将隐私伦理纳入到模型训练要求中,促进形成与数据使用方式相匹配的隐私动态保护机制。对于后者,则要继续提高和完善用户对人工智能模型的使用规范和技术素养。国内就中国场景下公众对人工智能的态度及其影响因素进行的实证研究显示,高教育、高人工智能知识水平的人群体虽能感知到技术的社会风险,但在个人层面仍持积极态度。
十、百万粉丝自媒体博主离婚分割账户事件
2024年4月,江苏省苏州市虎丘区人民法院审结了一起离婚纠纷案件,就夫妻一方注册运营的抖音、快手自媒体账号归属及价值分割问题进行了裁决。其中涉及的抖音账号粉丝数达三百万,是二人主要经济收入来源。
在法院主持调解中,此案主要以账户的注册时间,发展状况以及运营过程所体现的人身属性作为依据,并形成调解协议。当前,虚拟财产分割主要依据《民法典》的规定确定总体原则和方法,比如第一百二十七条指出,法律对数据、网络虚拟财产保护有规定的,依照其规定。而在财产分割方法上,依照《民法典》第一千零八十七条:离婚时,夫妻的共同财产由双方协议处理。
网络虚拟财产分割作为新兴事件,此案的判决强调了自媒体账号分割所涉及的人身属性,而人身属性的认定根据的是国家网络安全法第二十四条规定:网络运营者应要求用户提供真实身份信息。在用户注册实名制的背景下,账号分割的人身属性能够有效得到认定,但包括自媒体账户在内的虚拟财产的定义、价值、权属均处于不断发展的状态中,未来还有赖于后续立法和司法实践的不断完善和规范化。