《生成式AI用户风险感知与信息披露透明度报告》发布,腾讯混元评分最高
《生成式AI用户风险感知与信息披露透明度报告》发布,腾讯混元评分最高
《生成式AI用户风险感知与信息披露透明度报告(2024)》发布,通过对15款国产大模型的测评发现,虽然在个人信息保护方面做得相对透明,但所有产品均未披露训练数据来源,仅有4款允许用户撤回语音信息授权。
2024年12月18日下午,南方都市报在北京召开第八届啄木鸟数据治理论坛,会上重磅发布了3.6万字的《生成式AI用户风险感知与信息披露透明度报告(2024)》(以下简称《报告》)。该报告通过隐私政策和用户协议测评、产品功能设计体验等方式,对15款国产大模型的信息披露透明度进行了全面评估。
测评维度与结果
此次测评主要从五个维度展开:个人信息保护、知识产权、内容安全、特殊群体保护、投诉反馈,并细分为20个具体测评项,每项满分5分,总分100分。测评结果显示,15款AI大模型信息透明度的平均得分为60.2分。其中,8款AI大模型信息透明度得分超过60分,它们大多出自头部互联网公司。
从排名来看,得分最高前三位分别是腾讯混元(72分)、星火大模型(69分)、智谱清言(67分);排名靠后的依次是百小应(54分)、面壁Luca(51分)、秘塔(43分)。
个人信息保护:透明度较高但存短板
在个人信息保护方面,所有被测大模型均在隐私政策文本中详细说明了用户信息的收集和使用情况。然而,在用户数据退出AI训练功能方面,得分均值仅有33%。值得注意的是,仅有腾讯混元、豆包、海螺AI、智谱清言等4家大模型明确允许用户撤回语音信息授权。
知识产权:训练数据来源成空白
测评发现,所有15款国产大模型均未在政策协议中提及训练数据的具体来源。这一情况在海外大模型的测评中也是如此。专家认为,这可能涉及版权争议、商业竞争和数据安全等多方面因素。
内容安全:普遍重视但技术受限
所有被测大模型均表示无法完全保证生成内容的真实性、准确性。12款大模型产品在交互页面提示用户正在与AI对话,输出结果由机器生成。为提高生成内容质量,10款大模型承诺利用人工智能算法等技术进行内容审查,其中腾讯混元、天工AI、可灵三款还提到了机器与人工审查相结合的方式。
特殊群体保护与投诉反馈
在特殊群体保护方面,星野是唯一提供未成年人保护模式的大模型产品。在投诉反馈方面,大多数平台提供投诉反馈入口,承诺在15个工作日内反馈。
报告建议
《报告》建议赋予用户对个人数据的更多自主权,平台应提供便捷的功能设计,让用户有权选择是否同意个人数据被用于模型训练。同时,报告呼吁加强对AI生成内容的标识要求,建议相关的管理办法和国标尽快出台。
