香农信息量I:
熵H§:
交叉熵
H(p,q)越小,p,q越相似。
相对熵(KL散度)
其中p(xi)和q(xi)是两个概率分布,KL使用来计算两个信息熵之间的差值的。在判断预测是否准确的时候可以用预测值作为q(xi),p(xi)作为真实值。
熵、交叉熵和相对熵关系
H(p,q)越小,p,q越相似。
其中p(xi)和q(xi)是两个概率分布,KL使用来计算两个信息熵之间的差值的。在判断预测是否准确的时候可以用预测值作为q(xi),p(xi)作为真实值。
1. 相对熵的认识 2. 相对熵的性质 3. 相
找了一些文章,感觉这篇是最好的,转载自:最好的解释链接KL散度常用于衡量两个概率分布之间的距离
一、第一种理解 相对熵(relative entropy)又称为KL散度(Kullback–Leib
KL散度,KL距离,又叫相对熵(relative entropy),衡量两个概率分布之间的不同程度。
举报文章
请选择举报类型
补充说明
0/200
上传截图
格式支持JPEG/PNG/JPG,图片不超过1.9M