图像识别技术与应用学习总结⑤
创作时间:
作者:
@小白创作中心
图像识别技术与应用学习总结⑤
引用
CSDN
1.
https://blog.csdn.net/2401_87981666/article/details/145768990
一.LeNet架构
最开始的时候是手写的数字识别。
居中和缩放
50000个训练数据
10,000 个测试数据
图像大小28*28
10 类
总体来看,LeNet(LeNet-5)由两个部分组成:
- 卷积编码器:由两个卷积层组成;
- 全连接层密集块:由三个全连接层组成;
每个卷积层使⽤5×5卷积核和一个sigmoid激活函数。
简化版:
图片缩小是因为删除了一些信息(像素)。
为深度做贡献的是卷积层与全连接层。
二.学习表征
浅层学习:不涉及特征学习,其特征主要靠人工经验或特征转换方法来抽取
表示学习:如果有一种算法可以自动地学习出有效的特征,并提高最终机器学习模型的性能,那么这种学习就可以叫作表示学习
通常需要从底层特征开始,经过多步非线性转换才能得到。
通过构建具有一定“深度”的模型,可以让模型来自动学习好的特征表示(从底层特征,到中层特征,再到高层特征),从而最终提升预测或识别的准确性。
三.视觉分层理论
- 视觉分层理论,从底层到高层的不断抽象。
- 浅层卷积核提取:边缘、颜色、斑块等底层像素特征。
- 中层卷积核提取:条纹、纹路、形状等中层纹理特征。
- 高层卷积等特征。
四.AlexNet架构
更深更大的 LeNet
主要修改
- 丢弃法(防止过拟合)
- ReLu 激活函数(训练)
- 最大池化法
- AlexNet比相对较小的LeNet5要深得多。AlexNet由⼋层组成:五个卷积层、两个全连接隐藏层和一个全连接输出层。
- AlexNet使⽤ReLU⽽不是sigmoid作为其激活函数。
- 将激活函数从 sigmoid 更改为 ReLu(减缓梯度消失)参数更新过小,在每次更新时几乎不会移动,导致模型无法学习
- 在两个隐含层之后应用丢弃法(更好的稳定性 / 正则化)
- 数据增强
梯度爆炸:参数更新过大,破坏了模型的稳定收敛。
小结:
AlexNet的架构与LeNet相似,但使⽤了更多的卷积层和更多的参数来拟合大规模的ImageNet数据集。
• 今天,AlexNet已经被更有效的架构所超越,但它是从浅层⽹络到深层网络的关键一步。
• 新加入了Dropout、ReLU、最大池化层和数据增强
五.VGG网络
VGG19共有16个卷积层和3个全连接层。
此外,还有5个最大池化层分布在不同的卷积层之下。
AlexNet比LeNet更深入更大,以获得更强性能
能不能更大更深?
- 选项
- 更多稠密层(开销太大)
- 更多的卷积层
- 将卷积层组合成块
VGG 块
3x3 卷积(填充=1)(n层,m个通道)
2x2 最大池化层 (步幅=2)
更深还是更宽?
5x5 卷积
3x3 卷积(更多)
更深和更窄更好
多个VGG块后加全连接层
VGG使用可重复使用的卷积块来构建深度卷积神经网络
今日份学习总结已完毕
本文原文来自CSDN
热门推荐
“风评被害”的奶龙,做错了什么?
专家解读:心动过速的五种科学治疗方法
初中的数学怎么学才能学好?可以试试这些方法!
2025初中学业水平考试(中考)最全介绍
如何设置省电模式:手机与电脑的节能技巧详解
辅酶Q10副作用与应对:五大风险需警惕
雌小鬼与杂鱼:一个二次元梗的前世今生
“杂鱼”角色爆红:从剧情元素到二次元文化符号
回顾 | 国乒男团奥运五连冠:马龙成就“六金王”荣耀
乒协回应马龙樊振东陈梦退出世界排名,刘国梁最新回应!
马龙的国际影响力:跨越国界的乒乓传奇
马龙职业生涯:36岁仍在赛场,挑战退役传统
马龙“最后一舞”?樊振东退役倒计时?
眉山洪雅:居家托养服务 为残疾人幸福加码
漳州六大特色小吃:土笋冻、卤面展现闽南风味
角色扮演游戏:从桌游到电子游戏的演变历程
艾尔登法环:游戏前期一定要尽早获取的道具,越早拿到游戏越简单
岳云鹏、孙越、蒋欣齐聚2025年春晚分会场
从腹痛到黄疸:肝囊肿的主要症状与诊断建议
饮食调整,告别恶心呕吐
春季防结节,从调理痰湿体质开始
中医养生巧治恶心呕吐,这些方法你试过吗?
饮食不当惹祸,教你远离恶心呕吐
更快响应更低箝位:SIDACtor+MOV提升电动汽车充电安全
六步搞定汽车导航卡升级,告别路线规划困扰
世界最高国门红其拉甫:自驾者向往的帕米尔高原冬季胜地
帕米尔高原摄影指南:红其拉甫、喀纳斯湖等景点详解
补骨脂的作用和功效及用量,补骨脂的用量多少克?
补骨脂的使用方法及注意事项
深圳地铁首推“晨曦特快”,5:30直达大梅沙