图像识别技术与应用学习总结⑤
创作时间:
作者:
@小白创作中心
图像识别技术与应用学习总结⑤
引用
CSDN
1.
https://blog.csdn.net/2401_87981666/article/details/145768990
一.LeNet架构
最开始的时候是手写的数字识别。
居中和缩放
50000个训练数据
10,000 个测试数据
图像大小28*28
10 类
总体来看,LeNet(LeNet-5)由两个部分组成:
- 卷积编码器:由两个卷积层组成;
- 全连接层密集块:由三个全连接层组成;
每个卷积层使⽤5×5卷积核和一个sigmoid激活函数。
简化版:
图片缩小是因为删除了一些信息(像素)。
为深度做贡献的是卷积层与全连接层。
二.学习表征
浅层学习:不涉及特征学习,其特征主要靠人工经验或特征转换方法来抽取
表示学习:如果有一种算法可以自动地学习出有效的特征,并提高最终机器学习模型的性能,那么这种学习就可以叫作表示学习
通常需要从底层特征开始,经过多步非线性转换才能得到。
通过构建具有一定“深度”的模型,可以让模型来自动学习好的特征表示(从底层特征,到中层特征,再到高层特征),从而最终提升预测或识别的准确性。
三.视觉分层理论
- 视觉分层理论,从底层到高层的不断抽象。
- 浅层卷积核提取:边缘、颜色、斑块等底层像素特征。
- 中层卷积核提取:条纹、纹路、形状等中层纹理特征。
- 高层卷积等特征。
四.AlexNet架构
更深更大的 LeNet
主要修改
- 丢弃法(防止过拟合)
- ReLu 激活函数(训练)
- 最大池化法
- AlexNet比相对较小的LeNet5要深得多。AlexNet由⼋层组成:五个卷积层、两个全连接隐藏层和一个全连接输出层。
- AlexNet使⽤ReLU⽽不是sigmoid作为其激活函数。
- 将激活函数从 sigmoid 更改为 ReLu(减缓梯度消失)参数更新过小,在每次更新时几乎不会移动,导致模型无法学习
- 在两个隐含层之后应用丢弃法(更好的稳定性 / 正则化)
- 数据增强
梯度爆炸:参数更新过大,破坏了模型的稳定收敛。
小结:
AlexNet的架构与LeNet相似,但使⽤了更多的卷积层和更多的参数来拟合大规模的ImageNet数据集。
• 今天,AlexNet已经被更有效的架构所超越,但它是从浅层⽹络到深层网络的关键一步。
• 新加入了Dropout、ReLU、最大池化层和数据增强
五.VGG网络
VGG19共有16个卷积层和3个全连接层。
此外,还有5个最大池化层分布在不同的卷积层之下。
AlexNet比LeNet更深入更大,以获得更强性能
能不能更大更深?
- 选项
- 更多稠密层(开销太大)
- 更多的卷积层
- 将卷积层组合成块
VGG 块
3x3 卷积(填充=1)(n层,m个通道)
2x2 最大池化层 (步幅=2)
更深还是更宽?
5x5 卷积
3x3 卷积(更多)
更深和更窄更好
多个VGG块后加全连接层
VGG使用可重复使用的卷积块来构建深度卷积神经网络
今日份学习总结已完毕
本文原文来自CSDN
热门推荐
寿光市:中国蔬菜之乡的全面解读
从“吃不完”到“吃不起”?豆橛子“变脸”,山东三大蔬菜基地在做啥
华盛顿空难揭示美国空管系统运作混乱
摇曳的鸡尾酒:调制魅力的艺术
2025春晚,老百姓提出3大期望,娱乐风向已变,今年会再创经典吗
赵本山新作+春晚复出引爆期待!
上汽大众车主必看:冬季保养全攻略
用百元人民币折出爱意满满的心形礼物
重庆轨道交通18号线北延伸段进展顺利
自闭症的 3 大类典型表现,一两岁「内向」孩子请格外留意!
数智化如何赋能高素质专业化教师队伍建设?
一晚上接诊近20人!医生紧急提醒:鱼刺卡喉千万别这么做
家用井水有腥味是怎么回事?
这些用水、用气、用电安全知识,你知道吗?
文科能报哪些医学专业?看最吃香的十大医学专业及王牌院校
从湛江到徐闻的交通方式有哪些?如何选择最合适的出行方式?
广东到海南旅游高铁:路线、票价与耗时全攻略
妙佑医疗国际推荐:运动降糖新方法
糖尿病患者的情绪管理秘籍:从认知到实践
北京吉普:克莱斯勒入华的起点与见证
鞋子踩到狗屎怎么办?清洁方法和推荐清洁剂都在这里!
冬季煤气中毒高发,这些急救步骤要牢记!
火箭军总医院专家教你预防煤气中毒
北京呼吸科排名第一的医院
从甲壳虫到保时捷:一个改变汽车工业的传奇故事
大众汽车的二战传奇:从人民之车到军用先锋
美爆了,2024全国10大最美枫叶观赏地新鲜出炉,你pick哪一个?
明太鱼:朝鲜半岛的国民海产,从头到尾都是美味
延边美食:东北与朝鲜族文化的独特交融
员工薪酬福利方案怎么设计才能提高员工满意度?