2025特征融合创新思路!动态特征融合暴力涨点
2025特征融合创新思路!动态特征融合暴力涨点
动态特征融合(Dynamic Feature Fusion, DFF)是深度学习中一种用于融合多个特征的方法,通过动态学习调整每个特征的重要性,并将它们融合在一起以获得更准确的结果。
动态特征融合(Dynamic Feature Fusion, DFF)是深度学习中一种用于融合多个特征的方法,通过动态学习调整每个特征的重要性,并将它们融合在一起以获得更准确的结果。
DFF旨在基于全局信息自适应地融合多尺度局部特征图。它通过动态机制在融合过程中选择重要特征,以解决传统方法在特征融合方面的不足,提升模型对复杂数据的处理能力。例如在医学图像分割中,不同器官的形状和大小差异较大,传统方法难以有效融合多尺度特征,而DFF可以根据全局信息动态地调整不同尺度特征的权重,从而更好地捕捉和利用这些特征。
论文精选
论文1:E2ENet
标题: E2ENet: Dynamic Sparse Feature Fusion for Accurate and Efficient 3D Medical Image Segmentation
中文标题: E2ENet:动态稀疏特征融合用于准确高效的3D医学图像分割
方法:
动态稀疏特征融合(DSFF)机制:自适应地学习融合多尺度特征,同时减少冗余信息。
限制深度偏移的3D卷积:利用3D空间信息,同时保持模型和计算复杂度与2D方法相当。
CNN骨干网络:提取多尺度特征图,通过多个阶段逐步聚合特征。
深度监督策略:使用不同尺度的地面真实分割的下采样版本和相应的预测来计算损失。
创新点:
性能提升:在AMOS-CT挑战中,与之前最佳性能方法相比,E2ENet在推理阶段节省了超过68%的参数数量和29%的FLOPs,同时保持了相当的准确率。
动态稀疏特征融合(DSFF)机制:通过自适应地选择和过滤特征图连接,显著减少了计算开销,而没有牺牲性能。
限制深度偏移的3D卷积:在保持2D卷积的计算效率的同时,能够捕捉3D空间关系,提高了分割的准确性。
多尺度特征融合:通过逐步融合相邻特征,充分利用了不同尺度的信息,提高了分割的精度。
论文2:D-Net
标题: D-Net Dynamic Large Kernel with Dynamic Feature Fusion for Volumetric Medical Image Segmentation
中文标题: D-Net:动态大核与动态特征融合用于体积医学图像分割
方法:
Dynamic Large Kernel (DLK):提出一种轻量级的动态大核模块,用于通用特征提取。DLK使用多个大尺寸卷积核来捕获多尺度特征,并通过动态选择机制基于全局上下文信息自适应地突出重要的通道和空间特征。
Dynamic Feature Fusion (DFF):提出一种轻量级的动态特征融合模块,用于自适应地融合多尺度局部特征。DFF根据全局信息动态融合特征图。
Salience layer:提出一种用于低层次特征提取的Salience层,并探索其有效性。该层采用Channel Mixer进行全局特征表示。
DLK-Net:将DLK和DFF模块整合到层次化的ViT架构中,构建了DLK-Net用于医学图像分割。
DLK-NETR:将DLK模块整合到混合CNN-ViT架构中,构建了DLK-NETR。
创新点:
DFF模块:能够自适应地融合多尺度局部特征图,基于全局信息动态选择重要特征,提高了特征融合的灵活性和准确性。
Salience层:通过Channel Mixer在原始维度上捕获全局低层次特征,增强了网络对输入图像像素级信息的利用,与基于ViT的分割模型相比,能够更好地提取低层次特征以改善分割性能。
模型性能:在三个不同的分割任务(腹部多器官分割、脑肿瘤分割和肝血管肿瘤分割)上,D-Net、DLK-Net和DLK-NETR模型均实现了优于其他最先进模型的分割精度,同时具有相对较低的模型复杂度。例如,在腹部多器官分割任务中,D-Net的平均Dice分数达到了89.67%,标准差为12.56,优于其他SOTA方法。
�论文3:Dynamic Feature Fusion for Semantic Edge Detection
标题: Dynamic Feature Fusion for Semantic Edge Detection
中文标题: 动态特征融合用于语义边缘检测
方法:
动态特征融合策略:提出一种新颖的动态特征融合策略,为不同的输入图像和位置自适应地分配不同的融合权重。通过权重学习器为特征图的每个位置推断合适的融合权重,以考虑特征图不同位置和输入图像的异质性贡献。
特征提取器与归一化器:设计了一个特征提取器与归一化器,将多尺度响应的幅度缩放到相同量级,为下游融合操作做准备。
自适应权重融合模块:执行两个计算,首先基于图像内容动态生成位置特定的融合权重,然后将这些权重应用于积极融合高级和低级响应图。
创新点:
揭示了固定权重融合的局限性:首次揭示了流行固定权重融合在语义边缘检测(SED)中的局限性,并解释了为什么它不能产生预期的令人满意的融合结果。
动态特征融合模型:据我们所知,这是第一个在SED研究领域中基于输入内容学习自适应融合权重以合并多级特征的工作。
性能提升:在Cityscapes和SBD基准测试上的综合实验表明,所提出的DFF模型优于固定权重融合和位置不变权重融合方法,并且在SED任务上达到了新的最先进水平。例如,在Cityscapes数据集上,DFF模型的平均F-measure(MF)达到了80.7%,优于CASENet的71.3%和DDS的78.0%。
论文4:DynaSeg
标题: DynaSeg: A deep dynamic fusion method for unsupervised image segmentation incorporating feature similarity and spatial continuity
中文标题: DynaSeg:一种结合特征相似性和空间连续性的深度动态融合无监督图像分割方法
方法:
动态加权方案:提出了一种动态加权方案,自动调整参数,灵活适应图像特征,并易于与其他分割网络集成。
Silhouette Score阶段:引入了基于轮廓分数的阶段,以指导优化过程,确保改善聚类质量,防止欠分割失败。
特征提取:使用基于CNN和预训练的ResNet进行特征提取,提高了计算效率。
聚类机制:通过线性分类器生成响应图,进行归一化处理,并使用argmax函数为每个像素分配聚类标签。
创新点:
动态加权损失:引入了一种灵活且自适应的损失函数,在训练期间动态调整平衡权重μ,确保特征相似性和空间连续性之间的最佳平衡。这使得模型能够适应不同的数据集,无需手动更改参数,如平衡权重,并便于在其他分割网络上实现所提出的方法。
ResNet与FPN集成:利用ResNet结合特征金字塔网络(FPN)进行增强特征提取,提高了无监督分割任务的整体性能。这种集成特别有利于分割不同尺度和分辨率的对象,因为FPN能够进行多尺度处理和不同抽象层次的特征集成。此外,通过整合ResNet,利用其固有的优势,如CNN的残差信息,减轻了梯度消失等问题,增强了网络捕捉复杂细节和语义信息的能力。
性能提升:在五个基准数据集上的实验结果表明,DynaSeg在定量指标和定性分割结果上均优于其他最先进方法。例如,在COCO-Stuff数据集上,DynaSeg - FSF模型的最高mIoU Stuff达到了54.10%,超过了其他所有方法,包括基于Vision Transformer(ViT)架构的方法。