信息熵 entropy
自信息:表示一个事件的信息量,
I(x)=−logP(x)1
如果公式(1)中的log以e为底,则I(x)单位是奈特(nats)。
如果公式(1)中的log以2为底,则I(x)单位是比特(bit)或者香农(shannons)。
熵(香农熵,Shannon Entropy):表示整个概率分布的不确定性。
H(x)=Ex∼P[I(x)]2
根据期望和方差中离散型变量期望的计算公式(公式1),可进一步得出:
H(x)=−n∑i=1P(xi)logP(xi)3
公式(3)中:
n: 该分布中x可以取n个不同的值
P(xi)为x取第i个值的概率
公式(2)和(3)都是基于公式(1)计算的,因此公式中的log也可以以e为底或者以2为底,以上下文环境为准。
条件熵H(Y|X):X给定条件下Y的条件概率分布的熵对X的数学期望
H(Y|X)=n∑i=1H(Y|X=xi)P(X=xi)
基尼指数:
Gini(p)=K∑pk(1−pk)=1−K∑p2k