问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

北大开源首个针对视频编辑的新指标,与人类感知高度对齐|AAAI25

创作时间:
作者:
@小白创作中心

北大开源首个针对视频编辑的新指标,与人类感知高度对齐|AAAI25

引用
澎湃
1.
https://m.thepaper.cn/newsDetail_forward_29774221

随着视频生成模型的快速发展,视频质量评估标准也亟需跟上。近日,北京大学MMCAL团队开发了首个用于视频编辑质量评估的新指标VE-Bench,该指标不仅关注视频编辑前后的联系,还特别强调了与人类主观感受的高度对齐。

VE-Bench:首个视频编辑质量评估新指标

视频生成模型卷得热火朝天,配套的视频评价标准自然也不能落后。现在,北京大学MMCAL团队开发了首个用于视频编辑质量评估的新指标——VE-Bench,相关代码与预训练权重均已开源。

它重点关注了AI视频编辑中最常见的一个场景:视频编辑前后结果与原始视频之间的联系。例如,在“摘掉女孩的耳环”的任务中,需要保留人物ID,源视频与编辑结果应该有着较强语义相关性,而在“把女孩换为钢铁侠”这样的任务中,语义就明显发生了改变。

此外,它的数据还更加符合人类的主观感受,是一个有效的主观对齐量化指标。

实验结果显示,与FastVQA、StableVQA、DOVER、VE-Bench QA等视频质量评价方法相比,VE-Bench QA取得了SOTA的人类感知对齐结果:

更丰富全面的数据库VE-Bench DB

VE-Bench首先从原始视频收集、提示词收集、视频编辑方法、主观标注4个方面入手,构建了一个更加丰富的数据库VE-Bench DB。

原始视频收集

为了确保数据多样性,VE-Bench DB除了收集来自真实世界场景的视频,还包括CG渲染的内容以及基于文本生成的AIGC视频。数据来源包括公开数据集DAVIS、Kinetics-700、Sintel、Spring的视频,来自Sora和可灵的AIGC视频,以及来自互联网的补充视频。来自互联网的视频包括极光、熔岩等常规数据集缺乏的场景。所有视频都被调整为长边768像素,同时保持其原始宽高比。由于目前主流视频编辑方法支持的长度限制,每段视频都被裁剪为32帧。

源视频的具体内容构成如下图所示,所有样本在收集时均通过人工筛选以保证内容的多样性并减少冗余:

提示词收集

参考过往工作,VE-Bench将用于编辑的提示词分为3大类别:

  • 风格编辑(Style editing):包括对颜色、纹理或整体氛围的编辑。
  • 语义编辑(Semantic editing):包括背景编辑和局部编辑,例如对某一对象的添加、替换或移除。
  • 结构编辑(Structural editing):包括对象大小、姿态、动作等的变化。

针对每个类别,团队人工编写了相应的提示词,对应的词云与类别构成如下:

编辑结果生成

VE-Bench选取了8种视频编辑方法。这些方法包括早期的经典方法与近期较新的方法,涵盖从SD1.4~SD2.1的不同版本,包括需要微调的方法、0-shot的方法、和基于ControlNet、PnP等不同策略编辑的方法。

人类主观评价

在进行主观实验时,VE-Bench确保了每个视频样本均由24位受试者进行打分,符合ITU标准中15人以上的人数要求。所参与受试者均在18岁以上,学历均在本科及以上,包括商学、工学、理学、法学等不同的背景,有独立的判断能力。在实验开始前,所有人会线下集中进行培训,并且会展示数据集之外的不同好坏的编辑例子。测试时,受试者被要求根据其主观感受,并对以下几个方面进行综合评价:文本与视频的一致性、源视频与目标视频的相关度以及编辑后视频的质量,分数为十分制。

最后收集得到的不同模型平均得分的箱线图如下:

可以看出,当前的大多数文本驱动的视频编辑模型中位数得分普遍在5分左右浮动,少数模型的得分中位数可以达到近6分,部分模型的得分中位数不到4分。模型得分最低分可以下探到不到2分,也有个别样本最高可以达到近9分。

具体每个样本在Z-score前后的得分直方图如下图所示,可以看出极高分和极低分仍在少数:

可以看出,目前的模型都相对较为擅长风格化指令,这可能是利用了SD在大量不同风格图片上训练的先验成果。同时,删除指令相比于添加得分更低,因为它需要额外考虑物体或背景重建等问题,对模型语义理解与细粒度特征提取能力有更高要求。现有模型都还不太擅长形状编辑。这方面FateZero模型表现较为优秀,这可能与它针对shape-aware提出的注意力混合方法有关。

从3个维度进行评估的VE-Bench QA

在构建的VE-Bench DB的基础上,团队还提出了创新的VE-Bench QA训练方法,目标是得到与人类感知更加接近的分数。

下面这张图展示了VE-Bench QA的主要框架:

VE-Bench QA从3个维度对文本驱动的视频编辑进行评估:

  • 文本-视频一致性:为了衡量所编辑视频是否与文本有关,VE-Bench QA基于BLIP进行了有效的视频-文本相关性建模,通过在BLIP视觉分支的基础上加入Temporal Adapter将其扩展到三维,并与文本分支的结果通过交叉注意力得到输出。
  • 源视频-编辑后视频动态相关性:为了更好建模随上下文动态变化的相关性关系,VE-Bench QA在该分支上通过时空Transformer将二者投影到高维空间,并在此基础上拼接后利用注意力机制计算二者相关性,最后通过回归计算得到相应输出。
  • 传统维度的视觉质量方面:VE-Bench QA参考了过往自然场景视频质量评价的优秀工作DOVER,通过在美学和失真方面预训练过后的骨干网络输出相应结果。

最终各个分支的输出通过线性层回归得到最终分数。

实验结果显示,VE-Bench QA在多个数据集上所预测的结果,其与真值的相关性得分都领先于其他方法:

论文和代码

论文链接:https://arxiv.org/abs/2408.11481

代码链接:https://github.com/littlespray/VE-Bench

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号