用PCA还是LDA?特征抽取经典算法大PK
本文摘要:在以前的格物汇文章内容中,大家解读了svm算法的经典算法——主成分分析法(PCA),了解了PCA优化算法本质上是进行了一次纵坐标旋转,尽可能让数据同构在新的纵坐标方位上的方差尽可能大,而且让原数据与新的同构的数据在间距的转变上尽可能小。方差较小的方位代表数据含有的数据量较小,提议享有。方差较小的方位代表数据含有的数据量较较少,提议抛下。今日大家就看来一下PCA的确立运用于实例和特点同构的另一种方式:线形判别分析(LDA)。

华体会官网

华体会官网

在以前的格物汇文章内容中,大家解读了svm算法的经典算法——主成分分析法(PCA),了解了PCA优化算法本质上是进行了一次纵坐标旋转,尽可能让数据同构在新的纵坐标方位上的方差尽可能大,而且让原数据与新的同构的数据在间距的转变上尽可能小。方差较小的方位代表数据含有的数据量较小,提议享有。方差较小的方位代表数据含有的数据量较较少,提议抛下。今日大家就看来一下PCA的确立运用于实例和特点同构的另一种方式:线形判别分析(LDA)。

华体会官网

PCA实例在深度学习中,所用以的数据通常维数非常大,大家务必用以降维的方式来突显信息内容成分较小的数据,PCA便是一个非常好的降维方式。下边大家看来一个确立的运用于实例,为了更好地比较简单考虑,大家用以一个较小的数据集来展览:不言而喻,大家数据有6维,维数尽管并不是许多 但不一定代表数据不能降维。

大家用以sklearn中的PCA优化算法标值数据集得到 以下的結果:我们可以看到历经PCA降维后依然溶解了新的6个层面,可是数据同构在每一个层面上的方差尺寸不一样。大家不容易对每一个层面上的方差进行归一化,每一个层面上的方差量大家称之为可表明的方差量(ExplainedVariance)。


本文关键词:用,PCA,还是,LDA,特征,抽取,经典,算法,大,在,华体会官网

本文来源:华体会体育平台-www.leblogdeahou.com