深度学习中的特征图:从低级到高级的特征表示
创作时间:
作者:
@小白创作中心
深度学习中的特征图:从低级到高级的特征表示
引用
CSDN
1.
https://blog.csdn.net/qq_61706514/article/details/144427246
特征图是卷积神经网络(CNN)中非常重要的概念,它反映了网络在不同层次对输入图像的特征表示。从低级特征到高级特征的转变,体现了网络从简单视觉特征到复杂语义信息的逐步抽象过程。本文将通过VGG16模型在不同层次的特征图来详细解释这一过程。
低级特征图
低级特征图包含基础的局部信息,如:
- 边缘:物体轮廓、区域边界
- 颜色:颜色区域分布
- 纹理:物体表面质地、图案
这些特征是图像中最基本的视觉信息,通常在CNN的浅层被提取。
高级特征图
高级特征图包含更抽象的、整体的语义信息,如:
- 物体类别
- 形状和结构:整体形状、部分关系
- 语义关系:物体间空间和功能关系
这些特征通常在CNN的深层被提取,它们是模型进行最终分类决策的重要依据。
用VGG提取不同层次的特征图
为了更直观地理解特征图的变化,我们使用VGG16模型在不同层次提取特征图。以下是具体分析:
第0层(非常浅层,最前面的卷积层)
- 特征类型:基本的边缘、线条、颜色渐变等最简单的视觉特征。
- 特征图表现:图中仍可看到清晰的物体边缘和区域明暗分布。比如,一朵花的轮廓、猫耳朵的轮廓或狗鼻子的亮暗交界线,都在这里突出。
- 注意点:
- 模型此时就像刚刚睁开眼睛,只能识别最基本的线条、点和颜色差异。
- 整张图到处都有特征响应,因为所有的简单变化(亮度、颜色差别)对模型而言都值得注意。
第5层(浅-中层)
- 特征类型:在简单边缘和颜色基础上,提取稍复杂的纹理和局部图案组合。
- 特征图表现:你会看到边缘信息仍然存在,但开始出现对某些特定方向纹理(如垂直或斜线条组合)的更强反应。
- 注意点:
- 模型不再对所有地方均等敏感,而是更倾向对某些方向或形状组合激活。
- 虽然依然看得出物体的基本轮廓,但已经在更细微的纹理结构上有所偏好。
第10层(中层)
- 特征类型:中等复杂度的图像特征——不再是单纯线条,而是局部更加复杂的纹理块、形状碎片。
- 特征图表现:特征图里出现了一些区域化的激活,有的通道可能对圆点纹理感兴趣,有的对斑点或十字形纹理有明显响应。
- 注意点:
- 模型正在把早期层捕捉到的边缘与简单纹理叠加、混合,构成一些稍有意义的局部特征块。
- 虽然你还看不到清晰的“猫脸”或“狗头”,但模型已经在为后续高层判断建立更复杂的“特征原料”。
第17层(深-中间层)
- 特征类型:更抽象、更复杂的局部结构特征,比第10层更高级。
- 特征图表现:特征图往往是一些零散的小亮点分布在各处。每个小亮点可能代表模型对某种特殊局部模式(例如某类纹理组合或部件轮廓)的偏好。
- 注意点:
- 模型不再对整张图很多地方都激活,而是更有选择性地在某些区域闪现亮点。
- 这些小块特征是模型向高级理解迈进的重要阶段,它正尝试把之前的基础纹理和边缘特征组合成对最终识别很有帮助的局部部件。
第28层(非常深层)
- 特征类型:高度抽象化的特征,接近模型的最终决策线索。
- 特征图表现:非常稀疏的亮点。大部分特征图区域很暗,只有极少数像素变亮。
- 注意点:
- 模型在这里已经过滤掉大量与最终分类无关的信息,只保留关键信号。
- 这些小亮点可能代表了特定物种、物体类别独有的“标志性局部特征”。对分类任务来说,这些点是模型判断“这是只猫”“这是只狗”“这是朵花”的最后证据。
代码实现
以下是使用PyTorch实现VGG16模型特征图提取和可视化的完整代码:
import torch
import torch.nn as nn
import torchvision.models as models
import torchvision.transforms as transforms
from PIL import Image
import matplotlib.pyplot as plt
import numpy as np
# 加载预训练的VGG16模型
model = models.vgg16(pretrained=True)
model.eval() # 设置模型为评估模式
# 定义图像预处理步骤
preprocess = transforms.Compose([
transforms.Resize((224, 224)),
transforms.ToTensor(),
transforms.Normalize(mean=[0.485, 0.456, 0.406], # ImageNet的均值
std=[0.229, 0.224, 0.225]) # ImageNet的标准差
])
# 加载图像
img_path = 'dog and cat.jpg' # 替换为您的图像路径
img = Image.open(img_path).convert('RGB')
# 预处理图像
input_tensor = preprocess(img)
input_batch = input_tensor.unsqueeze(0) # 添加批次维度
# 如果有GPU,可将输入移动到GPU
device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
input_batch = input_batch.to(device)
model.to(device)
# 定义一个字典来存储特征图
feature_maps = {}
# 定义钩子函数
def get_activation(name):
def hook(model, input, output):
feature_maps[name] = output.detach()
return hook
# 注册多个层的钩子,以获取浅层-中层-深层特征图
model.features[0].register_forward_hook(get_activation('layer0'))
model.features[5].register_forward_hook(get_activation('layer5'))
model.features[10].register_forward_hook(get_activation('layer10'))
model.features[17].register_forward_hook(get_activation('layer17'))
model.features[28].register_forward_hook(get_activation('layer28'))
# 前向传播
with torch.no_grad():
output = model(input_batch)
# 定义一个函数来可视化特征图
def visualize_feature_map(feature_map, num_channels=8, title='Feature Map'):
# feature_map: [B, C, H, W]
feature_map = feature_map.cpu().squeeze(0) # 移除批次维度
C, H, W = feature_map.shape
# 选择前num_channels个通道进行展示
fig, axes = plt.subplots(1, num_channels, figsize=(20, 5))
for i in range(num_channels):
if i >= C:
break
ax = axes[i]
ax.imshow(feature_map[i], cmap='viridis')
ax.axis('off')
ax.set_title(f'Channel {i+1}')
plt.suptitle(title)
plt.show()
# 可视化不同层次的特征图
if 'layer0' in feature_maps:
visualize_feature_map(feature_maps['layer0'], num_channels=8, title='Very Shallow Layer (Layer 0): Low-Level Features')
if 'layer5' in feature_maps:
visualize_feature_map(feature_maps['layer5'], num_channels=8, title='Shallow-Mid Layer (Layer 5): Transitioning Features')
if 'layer10' in feature_maps:
visualize_feature_map(feature_maps['layer10'], num_channels=8, title='Mid Layer (Layer 10): Mid-Level Features')
if 'layer17' in feature_maps:
visualize_feature_map(feature_maps['layer17'], num_channels=8, title='Deep-Mid Layer (Layer 17): More Abstract Features')
if 'layer28' in feature_maps:
visualize_feature_map(feature_maps['layer28'], num_channels=8, title='Very Deep Layer (Layer 28): High-Level Features')
通过这段代码,你可以清晰地看到VGG16模型在不同层次的特征图表现,从而更好地理解深度学习中的特征提取过程。
热门推荐
羟甲唑啉用七天停几天,保护鼻腔健康不容忽视
321世界睡眠日:中医“静神”智慧,助力改善睡眠质量
项目目标定义:如何明确项目的目标和期望?
天下武功唯快不破:世界各国高超音速导弹发展概览
肌本百颜:如何应对肤色不均?可以试试这些方法
六岁儿童接种疫苗指南:孩子六周岁应及时接种哪些疫苗
各地公积金提取额度是多少
多次监管督促才澄清 五洲新春及董秘“模糊回复”遭通报批评
菠萝可以放冰箱吗?储存和食用小贴士
代码审查如何做?
这六种行为很伤鼻子,很多人都没想到!
一周控糖食谱:糖尿病患者的低GI饮食计划
异父异母的兄妹可以结婚吗
启导心灵成长的五个实用技巧
国际原子能机构总干事访问尼日尔 加强核技术和平利用合作
脸部干燥脱皮原因有哪些?4种对于脸部干燥脱皮的原因探讨
“小孩哥”“小孩姐”为什么火了?
水果氧化怎么处理
有氧运动攻略|12种高效减重有氧运动
快速提升Win11游戏体验的四种方法
日本结婚制度全解析:从法律到习俗的全方位指南
雍正王朝:从六品直接升为三品,雍正到底看中了孙嘉诚哪一点
百合的生长周期是多长时间?(探究百合的生命周期及其影响因素)
为什么要剪掉百合花蕊(如何让百合花开得更久?)
Win11软件安全指南:专家分享防护方法与注意事项
遗产继承律师解读:父母遗留下的军队房改房,子女诉讼确权要点
新生儿护脐贴使用指南:如何贴怎么撕有严格步骤
美国各大学地理位置分布及各地区优势
电瓶车撞人车被扣多久能拿回
关于作弊那些事儿