归一化网络的激活函数和SoftMax回归
创作时间:
作者:
@小白创作中心
归一化网络的激活函数和SoftMax回归
引用
CSDN
1.
https://m.blog.csdn.net/m0_51263060/article/details/139573935
一.Batch归一化
Batch归一化使参数搜索问题变得容易,使神经网络对超参数的选择更加稳定,超参数的范围会更庞大,工作效果也很好,更加容易训练深层网络。
1.原理
Batch归一化,不只适用输入层,对于任意一个隐藏层都使用,归一化隐藏层的输入特征,使其分布更加均匀,从而可以加速训练速度。
2.使用方法
对于隐藏层的输入特征,先用归一化,再使用激活函数。
3.公式
的作用在于使隐藏单元值的均值和方差标准化,有固定的均值和方差,通过限制了隐藏单元值随机化的程度,使其更加具有代表性,从而从而可以加速训练速度。
4.特点
(1)Batch归一化使得隐藏单元值的均值和方差标准化,有固定的均值和方差,加速训练速度。
(2)限制了在前面层的参数更新会影响数值分布的程度,减少了输入值改变的问题,使其变得更稳定,增加每层网络独立学习能力,使得神经网络后面的层就会有更坚实的基础,从而更好应对输入数据的改变。
(3)有轻微正则化的作用,在mini-batch上计算均值和方差时,会有一些噪音,因为只是在mini-batch上计算的,而不是整个数据集。由于给隐藏单元添加了噪音,因此有轻微正则化的作用,使得后层单元不过分依赖任何一个隐藏单元,类似dropout的作用。
(4)由于Batch归一化的正则化效果很微弱,因此可以将batch归一化和dropout一起使用。但是如果用了更大的mini-batch,会减少Batch归一化的噪声,也会减少正则化效果。
(5)不要仅依靠Batch归一化会添加噪声这一特点,当做一种正规化方法使用,而是把它当做归一化隐藏单元值的一种方法使用,从而加速训练深层神经网络的速度。
二、SoftMax回归
1.SoftMax层
SoftMax层的纬度和输出值的种类有关,如上图C=4,故SoftMax的纬度为(4,1)即(c,1).
2.SoftMax激活函数
3.样例
热门推荐
防诈小课堂 | 多平台惊现“军装杀猪盘”,四步骗光全部积蓄
SLAM中的各种地图类型详解
Niko转指挥后能否成为下一个Apex?
比特币市场再度挑战10万美元关口,特朗普政策或成催化剂
甘草正确的泡水方法
过了英语6级,出国就不用考雅思了?请仔细看看这张表……
从文字角度分析1138话的壁画,合理推测三个世界故事的大致全貌。
手术医疗事故鉴定流程详解
空调高低压管怎么分
工业触摸一体机+PLC,为什么工厂都在用?这些应用场景才是关键
日本正式宣布,延迟退休至70岁!
“参聘制”来了!中小学教师身份如何界定?有人担心优秀师资流失
上野一日游攻略:从公园、动物园到购物美食全攻略
电动自行车新规实施,八大攻略助你安全出行
揭秘水质在线监测系统:24小时不间断的“水质哨兵”
经常吃麦片有什么好处和坏处
芯见小科普 | 不用电也能显示,墨水屏是什么原理?
檀木手链为什么是香的(沉香与檀香有什么区别?)
皮质醇节律是怎样的
病历中手术记录的书写内容及要求
深圳北站人潮汹涌,官方多措并举应对返程高峰
Web前端如何使用GPU进行渲染
多项式的带余除法:原理、步骤与应用
喝酒死亡案件的法律审视与责任判定
洗牙对牙齿究竟有坏处吗?洗牙的利与弊分析
云南省交通设计院公司创新智绘山区悬索桥
阿提拉帝国:对欧洲历史产生深远影响的匈奴领袖
古人的骗术——以前的人比现在更狡诈
【医史漫谈】第一位注解《伤寒论》的医学家——成无己
QQ女生网名大全:140个萌系网名推荐