问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

STAR:基于文本到视频模型的实际场景视频超分辨率技术

创作时间:
作者:
@小白创作中心

STAR:基于文本到视频模型的实际场景视频超分辨率技术

引用
1
来源
1.
https://stable-learn.com/zh/star-introduction/

STAR(Spatial-Temporal Augmentation with Text-to-Video Models)是一个创新的实际场景视频超分辨率框架,由南京大学、字节跳动和西南大学联合开发。它首次将多样化、强大的文本到视频扩散先验模型整合到实际场景的视频超分辨率中,有效解决了传统方法在处理真实世界视频时面临的诸多挑战。

核心特性

  • 创新的时空质量增强框架:专门针对实际场景的视频超分辨率设计
  • 强大的文本到视频模型集成:利用T2V模型提升视频质量
  • 出色的时间一致性:有效保持视频帧之间的连贯性
  • 真实的空间细节:生成高质量、细节丰富的视频画面
  • 实用的开源实现:提供完整的代码和预训练模型

技术原理

STAR框架包含四个主要模块:

  1. VAE编码器:处理视频输入
  2. 文本编码器:处理提示文本
  3. ControlNet:控制生成过程
  4. T2V模型与局部信息增强模块(LIEM)
  • LIEM专门设计用于减少伪影
  • 动态频率(DF)损失函数用于自适应调整高频和低频组件的约束

这些组件协同工作,实现了高时空质量、减少伪影和增强保真度的目标。

安装使用

环境配置

# 克隆仓库
git clone https://github.com/NJU-PCALab/STAR.git
cd STAR
# 创建环境
conda create -n star python=3.10
conda activate star
pip install -r requirements.txt
sudo apt-get update && apt-get install ffmpeg libsm6 libxext6  -y  

预训练模型

STAR提供两种基础模型版本:

  1. I2VGen-XL基础版本
  • 轻度退化模型:适用于轻微质量损失的视频
  • 重度退化模型:适用于严重质量损失的视频
  1. CogVideoX-5B基础版本
  • 专门用于处理重度退化视频
  • 仅支持720x480输入分辨率

使用步骤

  1. 下载预训练模型
  • 从HuggingFace下载模型权重
  • 将权重文件放入pretrained_weight/目录
  1. 准备测试数据
  • 将测试视频放入input/video/目录
  • 文本提示有三个选项:
  • 无提示
  • 使用Pllava自动生成提示
  • 手动编写提示(放入input/text/
  1. 配置路径
    修改video_super_resolution/scripts/inference_sr.sh中的路径:
  • video_folder_path
  • txt_file_path
  • model_path
  • save_dir
  1. 运行推理
bash video_super_resolution/scripts/inference_sr.sh

注意:如果遇到内存不足问题,可以在inference_sr.sh中设置较小的frame_length值。

实际效果

STAR在处理实际场景视频时展现出显著优势:

  • 对于从Bilibili等平台下载的低分辨率视频,能有效提升画质
  • 在处理重度退化视频时,可以显著改善视觉质量
  • 生成的视频保持良好的时间连贯性
  • 细节保真度高,不会产生过度平滑的效果

总结

STAR为实际场景的视频超分辨率提供了一个强大的解决方案。通过创新的架构设计和先进的文本到视频模型的整合,它能够有效处理各种实际场景中的视频质量提升需求。项目的开源特性也使得研究者和开发者能够方便地使用和改进这一技术。

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号