深度学习中的特征图:从低级到高级的特征表示
创作时间:
作者:
@小白创作中心
深度学习中的特征图:从低级到高级的特征表示
引用
CSDN
1.
https://blog.csdn.net/qq_61706514/article/details/144427246
特征图是卷积神经网络(CNN)中非常重要的概念,它反映了网络在不同层次对输入图像的特征表示。从低级特征到高级特征的转变,体现了网络从简单视觉特征到复杂语义信息的逐步抽象过程。本文将通过VGG16模型在不同层次的特征图来详细解释这一过程。
低级特征图
低级特征图包含基础的局部信息,如:
- 边缘:物体轮廓、区域边界
- 颜色:颜色区域分布
- 纹理:物体表面质地、图案
这些特征是图像中最基本的视觉信息,通常在CNN的浅层被提取。
高级特征图
高级特征图包含更抽象的、整体的语义信息,如:
- 物体类别
- 形状和结构:整体形状、部分关系
- 语义关系:物体间空间和功能关系
这些特征通常在CNN的深层被提取,它们是模型进行最终分类决策的重要依据。
用VGG提取不同层次的特征图
为了更直观地理解特征图的变化,我们使用VGG16模型在不同层次提取特征图。以下是具体分析:
第0层(非常浅层,最前面的卷积层)
- 特征类型:基本的边缘、线条、颜色渐变等最简单的视觉特征。
- 特征图表现:图中仍可看到清晰的物体边缘和区域明暗分布。比如,一朵花的轮廓、猫耳朵的轮廓或狗鼻子的亮暗交界线,都在这里突出。
- 注意点:
- 模型此时就像刚刚睁开眼睛,只能识别最基本的线条、点和颜色差异。
- 整张图到处都有特征响应,因为所有的简单变化(亮度、颜色差别)对模型而言都值得注意。
第5层(浅-中层)
- 特征类型:在简单边缘和颜色基础上,提取稍复杂的纹理和局部图案组合。
- 特征图表现:你会看到边缘信息仍然存在,但开始出现对某些特定方向纹理(如垂直或斜线条组合)的更强反应。
- 注意点:
- 模型不再对所有地方均等敏感,而是更倾向对某些方向或形状组合激活。
- 虽然依然看得出物体的基本轮廓,但已经在更细微的纹理结构上有所偏好。
第10层(中层)
- 特征类型:中等复杂度的图像特征——不再是单纯线条,而是局部更加复杂的纹理块、形状碎片。
- 特征图表现:特征图里出现了一些区域化的激活,有的通道可能对圆点纹理感兴趣,有的对斑点或十字形纹理有明显响应。
- 注意点:
- 模型正在把早期层捕捉到的边缘与简单纹理叠加、混合,构成一些稍有意义的局部特征块。
- 虽然你还看不到清晰的“猫脸”或“狗头”,但模型已经在为后续高层判断建立更复杂的“特征原料”。
第17层(深-中间层)
- 特征类型:更抽象、更复杂的局部结构特征,比第10层更高级。
- 特征图表现:特征图往往是一些零散的小亮点分布在各处。每个小亮点可能代表模型对某种特殊局部模式(例如某类纹理组合或部件轮廓)的偏好。
- 注意点:
- 模型不再对整张图很多地方都激活,而是更有选择性地在某些区域闪现亮点。
- 这些小块特征是模型向高级理解迈进的重要阶段,它正尝试把之前的基础纹理和边缘特征组合成对最终识别很有帮助的局部部件。
第28层(非常深层)
- 特征类型:高度抽象化的特征,接近模型的最终决策线索。
- 特征图表现:非常稀疏的亮点。大部分特征图区域很暗,只有极少数像素变亮。
- 注意点:
- 模型在这里已经过滤掉大量与最终分类无关的信息,只保留关键信号。
- 这些小亮点可能代表了特定物种、物体类别独有的“标志性局部特征”。对分类任务来说,这些点是模型判断“这是只猫”“这是只狗”“这是朵花”的最后证据。
代码实现
以下是使用PyTorch实现VGG16模型特征图提取和可视化的完整代码:
import torch
import torch.nn as nn
import torchvision.models as models
import torchvision.transforms as transforms
from PIL import Image
import matplotlib.pyplot as plt
import numpy as np
# 加载预训练的VGG16模型
model = models.vgg16(pretrained=True)
model.eval() # 设置模型为评估模式
# 定义图像预处理步骤
preprocess = transforms.Compose([
transforms.Resize((224, 224)),
transforms.ToTensor(),
transforms.Normalize(mean=[0.485, 0.456, 0.406], # ImageNet的均值
std=[0.229, 0.224, 0.225]) # ImageNet的标准差
])
# 加载图像
img_path = 'dog and cat.jpg' # 替换为您的图像路径
img = Image.open(img_path).convert('RGB')
# 预处理图像
input_tensor = preprocess(img)
input_batch = input_tensor.unsqueeze(0) # 添加批次维度
# 如果有GPU,可将输入移动到GPU
device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
input_batch = input_batch.to(device)
model.to(device)
# 定义一个字典来存储特征图
feature_maps = {}
# 定义钩子函数
def get_activation(name):
def hook(model, input, output):
feature_maps[name] = output.detach()
return hook
# 注册多个层的钩子,以获取浅层-中层-深层特征图
model.features[0].register_forward_hook(get_activation('layer0'))
model.features[5].register_forward_hook(get_activation('layer5'))
model.features[10].register_forward_hook(get_activation('layer10'))
model.features[17].register_forward_hook(get_activation('layer17'))
model.features[28].register_forward_hook(get_activation('layer28'))
# 前向传播
with torch.no_grad():
output = model(input_batch)
# 定义一个函数来可视化特征图
def visualize_feature_map(feature_map, num_channels=8, title='Feature Map'):
# feature_map: [B, C, H, W]
feature_map = feature_map.cpu().squeeze(0) # 移除批次维度
C, H, W = feature_map.shape
# 选择前num_channels个通道进行展示
fig, axes = plt.subplots(1, num_channels, figsize=(20, 5))
for i in range(num_channels):
if i >= C:
break
ax = axes[i]
ax.imshow(feature_map[i], cmap='viridis')
ax.axis('off')
ax.set_title(f'Channel {i+1}')
plt.suptitle(title)
plt.show()
# 可视化不同层次的特征图
if 'layer0' in feature_maps:
visualize_feature_map(feature_maps['layer0'], num_channels=8, title='Very Shallow Layer (Layer 0): Low-Level Features')
if 'layer5' in feature_maps:
visualize_feature_map(feature_maps['layer5'], num_channels=8, title='Shallow-Mid Layer (Layer 5): Transitioning Features')
if 'layer10' in feature_maps:
visualize_feature_map(feature_maps['layer10'], num_channels=8, title='Mid Layer (Layer 10): Mid-Level Features')
if 'layer17' in feature_maps:
visualize_feature_map(feature_maps['layer17'], num_channels=8, title='Deep-Mid Layer (Layer 17): More Abstract Features')
if 'layer28' in feature_maps:
visualize_feature_map(feature_maps['layer28'], num_channels=8, title='Very Deep Layer (Layer 28): High-Level Features')
通过这段代码,你可以清晰地看到VGG16模型在不同层次的特征图表现,从而更好地理解深度学习中的特征提取过程。
热门推荐
买二手房房龄该怎么计算,如何查看二手房房龄
甘特图核心功能概览

干部考核制度怎么建立才能确保公平性?
“刘强东是第一个”!刚刚,京东宣布:为外卖骑手缴纳五险一金
日本的房子叫什么
拔牙费用全解析:影响因素、费用范围及实用建议
可能是当下最火的事儿!北京“最佳野餐地指南”,出炉→
青牛精有什么后台背景?青牛精为什么不怕如来?
如何做软件项目经理助理
2025年胡志明市旅游攻略:必游景点与实用贴士
耳鸣:原因、诊断和治疗方法
熬夜后白天猛补觉,真的靠谱吗?
激光打标机画粗线条的四种实用方法
容积率与公摊面积的关系及合理分配方法
化学剥脱点痣手术安全吗?
老人电动轮椅电池大全:如何选对电池类型,延长使用时间
上海“沪七条”满月:“日光盘”再现,外环外成交热度攀升
犼,这是一种在古老神话中极具神秘色彩的生物
心电图检查的目的和注意事项
逻辑判断-真假推理-矛盾关系
属龙不宜佩戴南红?揭秘原因
如何做排班计划项目管理
人工智能崛起,将怎样改变我们的工作?
地震烈度与震级的关系:专家解读地震科普知识
牙科CT对孕妇有影响吗?拍牙齿CT后发现怀孕了怎么办,孩子能留吗?
浮点数在内存中的存储机制与IEEE 754标准
如何合理布置客厅朝北的空间?这种布置有哪些局限性?
4D-CTA在神经血管疾病中的价值
面试后如何礼貌询问结果
腹胀气吃什么药最好