一点对 KL 散度的理解

在深度学习中经常用到的一个概念是 KL散度。之前对KL散度进行过一次理解,但后来随着利用次数的减少,开始忘却其具体的定义与物理意义,仅在印象中记得是“描述两个分布的相似度的度量”。这个描述并不准确。为了便于以后查找回顾,这里再次把KL散度的相关理解整理下来。

KL 散度,全称 Kullback-Leible divergence, 是用于度量一个拟合分布Q与标准分布P的差异的一种方法,它是非对称的,这意味着DL(P||Q) \neq DL(Q||P). 其中DL(P||Q)可以理解为Q分布与P分布的差异,或者信息损失。

在介绍KL散度之前,先介绍信息熵的概念。

如果一个随机变量X的可能取值包括 {{ x_{1},x_{2},...,x_{n} }},对应取每个值的概率分别为p(X=x_{i}) (i=1,2,...,n),则随机变量X的熵被定义为

                                                            H(X) = - \sum_{i=1}^{n} p(x_{i})*log(p(x_{i}))

熵的物理意义是:一个变量包含的信息量的多少。熵越高,包含的信息量越多;熵越低,包含的信息量越少。

  • KL散度

KL散度是在熵的概念上定义的。

同样对于一个随机变量X,它的可能的取值范围是 {{ x_{1},x_{2},...,x_{n} }}.它在每个取值上的真实分布概率是p(X=x_{i}) (i=1,2,...,n),而我们学习到的分布是q(X=x_{i}) (i=1,2,...,n),我们学习到的分布q与它的真实分的分布p的差异(或信息损失)可以表示为:

                                                 D_{KL}(p||q) = \sum _{i=1}^{n} p(x_{i}) * (\log p(x_{i})-\log q(x_{i}))

这个差异实际上就是KL散度。

换句话说,KL散度就是学习到的分布(后面那个分布)与真实分布(前面那个分布)的概率的对数差的期望值。

根据数学公式变换,KL散度可以表达为其他形式:

                                  D_{KL}(p||q) =E [\log p(x_{i})-\log q(x_{i}) ],   注意这里计算期望的概率值是p的概率值。

                                D_{KL}(p||q) = \sum _{i=1}^{n} p(x_{i}) * \log(\frac{p(x_{i})}{q(x_{i})})

  • 注意:KL散度不是距离

                                     D_{KL}(p||q)\neq D_{KL}(q||p)

因为KL散度不具有交换性,因此不能被理解为“距离”。KL散度的物理意义是:一个分布(后者)相比另一个分布(前者)的信息损失(information loss)。

性质

  • 性质:KL散度的取值是非负的,证明如下:

--------------------------------------------------------------------------------------------------

证明:

证毕。

-------------------------------------------------------------------------------------------------------------------------- 

参考文章: 相对熵(KL散度)

                 KL散度的理解(GAN网络的优化)

                 KL散度理解

                 

  • 4
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值