1700534968
相比于PCA,LDA可以作为一种有监督的降维算法。在PCA中,算法没有考虑数据的标签(类别),只是把原数据映射到一些方差比较大的方向上而已。
1700534969
1700534970
假设用不同的颜色标注C1、C2两个不同类别的数据,如图4.4所示。根据PCA算法,数据应该映射到方差最大的那个方向,亦即y轴方向。但是,C1,C2两个不同类别的数据就会完全混合在一起,很难区分开。所以,使用PCA算法进行降维后再进行分类的效果会非常差。但是,如果使用LDA算法,数据会映射到x轴方向。那么,LDA算法究竟是如何做到这一点的呢?
1700534971
1700534972
1700534973
1700534974
1700534975
图4.4 两个不同类别的数据
1700534976
1700534977
知识点
1700534978
1700534979
线性代数,LDA
1700534980
1700534981
问题 对于具有类别标签的数据,应当如何设计目标函数使得降维的过程中不损失类别信息?在这种目标下,应当如何进行求解?
1700534982
1700534983
难度:★★☆☆☆
1700534984
1700534985
分析与解答
1700534986
1700534987
1700534988
1700534989
LDA首先是为了分类服务的,因此只要找到一个投影方向ω,使得投影后的样本尽可能按照原始类别分开。我们不妨从一个简单的二分类问题出发,有C1、C2两个类别的样本,两类的均值分别为,。我们希望投影之后两类之间的距离尽可能大,距离表示为
1700534990
1700534991
1700534992
1700534993
1700534994
(4.17)
1700534995
1700534996
1700534997
1700534998
1700534999
1700535000
其中,表示两类的中心在ω方向上的投影向量,,,因此需要优化的问题为
1700535001
1700535002
1700535003
1700535004
1700535005
(4.18)
1700535006
1700535007
容易发现,当ω方向与(μ1−μ2)一致的时候,该距离达到最大值,例如对图4.5(a)的黄棕两种类别的样本点进行降维时,若按照最大化两类投影中心距离的准则,会将样本点投影到下方的黑线上。但是原本可以被线性划分的两类样本,经过投影后有了一定程度的重叠,这显然不能使我们满意。
1700535008
1700535009
我们希望得到的投影结果如图4.5(b)所示,虽然两类的中心在投影之后的距离有所减小,但确使投影之后样本的可区分性提高了。
1700535010
1700535011
仔细观察两种投影方式的区别,可以发现,在图4.5(b)中,投影后的样本点似乎在每一类中分布得更为集中了,用数学化的语言描述就是每类内部的方差比左图中更小。这就引出了LDA的中心思想——最大化类间距离和最小化类内距离。
1700535012
1700535013
1700535014
1700535015
1700535016
(a)最大化两类投影中心距离准则下得到的分类结果
1700535017
[
上一页 ]
[ :1.700534968e+09 ]
[
下一页 ]