问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

深度学习中的熵相关知识:信息量、熵、相对熵与交叉熵详解

创作时间:
作者:
@小白创作中心

深度学习中的熵相关知识:信息量、熵、相对熵与交叉熵详解

引用
1
来源
1.
https://www.cnblogs.com/gongzb/p/18679797

在深度学习领域,熵相关知识是理解模型训练和优化的关键概念之一。本文将通过通俗易懂的语言,帮助读者理解信息量、熵、相对熵(KL散度)和交叉熵等核心概念及其相互关系。

信息量

信息量是衡量一个事件发生所携带的信息多少的指标。一个事件发生的概率越低,其信息量越大。例如,“中国队在世界杯夺冠”这一事件发生概率极低,因此其信息量非常大。

信息量的计算公式为:

其中,p(x)表示事件x发生的概率。公式中的负号是为了确保信息量为正数,而对数函数则用于衡量信息量的大小。

熵是衡量一个系统整体不确定性的指标。它反映了系统从不确定状态变为确定状态的难度。熵的本质是用一个数值来概括整个概率分布中的不确定性。

熵的计算公式为:

其中,p(x)表示事件x发生的概率,H(X)表示随机变量X的熵。熵的计算需要考虑每个事件的信息量与其发生概率的乘积,再对所有事件求和。

相对熵(KL散度)

相对熵,也称为KL散度,用于衡量两个概率分布之间的差异。它可以帮助我们比较模型预测分布与真实分布之间的差距。

KL散度的计算公式为:

其中,P表示真实分布,Q表示模型预测分布。KL散度的值越大,表示两个分布之间的差异越大。

交叉熵

交叉熵是衡量使用一个概率分布(Q)来表示另一个概率分布(P)的效率的指标。在机器学习中,交叉熵常被用作损失函数,用于衡量模型预测结果与真实标签之间的差异。

交叉熵的计算公式为:

其中,P表示真实分布,Q表示模型预测分布。交叉熵的值越小,表示模型的预测结果越接近真实标签。

总结

  • 信息量衡量单个事件的不确定性
  • 熵衡量整个系统的不确定性
  • KL散度衡量两个概率分布之间的差异
  • 交叉熵衡量使用一个概率分布表示另一个概率分布的效率

在深度学习中,最小化交叉熵等价于最小化KL散度,这有助于优化模型的预测性能。

本文原文来自知乎专栏

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号