1700535896
P(yi|x)可以写成
1700535897
1700535898
1700535899
,
1700535900
1700535901
(6.11)
1700535902
1700535903
其中x=(x1,x2,…,xn)为样本对应的特征向量,P(x)为样本的先验概率。对于特定的样本x和任意类别yi,P(x)的取值均相同,并不会影响P(yi|x)取值的相对大小,因此在计算中可以被忽略。假设特征x1,x2,…,xn相互独立,可以得到:
1700535904
1700535905
P(yi|x)∝P(x|yi)P(yi)=P(x1|yi)P(x2|yi)…P(xn|yi)P(yi) ,
1700535906
1700535907
(6.12)
1700535908
1700535909
其中P(x1|yi),P(x2|yi),…,P(xn|yi),以及P(yi)可以通过训练样本统计得到。可以看到后验概率P(xj|yi)的取值决定了分类的结果,并且任意特征xj都由yi的取值所影响。因此概率图模型可以用图6.2表示。
1700535910
1700535911
1700535912
1700535913
1700535914
图6.2 朴素贝叶斯模型的概率图模型
1700535915
1700535916
注意,图6.2的表示为盘式记法。盘式记法是一种简洁的概率图模型表示方法,如果变量y同时对x1,x2,…,xN这N个变量产生影响,则可以简记成图6.2的形式 。
1700535917
1700535918
问题2 解释最大熵模型的原理,并给出概率图模型表示。
1700535919
1700535920
难度:★★☆☆☆
1700535921
1700535922
分析与解答
1700535923
1700535924
信息是指人们对事物理解的不确定性的降低或消除,而熵就是不确定性的度量,熵越大,不确定性也就越大。最大熵原理是概率模型学习的一个准则,指导思想是在满足约束条件的模型集合中选取熵最大的模型,即不确定性最大的模型。在平时生活中,我们也会有意无意地使用最大熵的准则,例如人们常说的鸡蛋不能放在一个篮子里,就是指在事情具有不确定性的时候,我们倾向于尝试它的多种可能性,从而降低结果的风险。同时,在摸清了事情背后的某种规律之后,可以加入一个约束,将不符合规律约束的情况排除,在剩下的可能性中去寻找使得熵最大的决策。
1700535925
1700535926
假设离散随机变量x的分布是P(x),则关于分布P的熵定义为
1700535927
1700535928
1700535929
1700535930
1700535931
(6.13)
1700535932
1700535933
可以看出当x服从均匀分布时对应的熵最大,也就是不确定性最高。
1700535934
1700535935
给定离散随机变量x和y上的条件概率分布P(y|x),定义在条件概率分布上的条件熵为
1700535936
1700535937
1700535938
,
1700535939
1700535940
(6.14)
1700535941
1700535942
1700535943
其中(x)为样本在训练数据集上的经验分布,即x的各个取值在样本中出现的频率统计。
1700535944
1700535945
[
上一页 ]
[ :1.700535896e+09 ]
[
下一页 ]