问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

LDA和PCA在鸢尾花数据集上的二维投影比较

创作时间:
作者:
@小白创作中心

LDA和PCA在鸢尾花数据集上的二维投影比较

引用
1
来源
1.
https://www.aidoczh.com/scikit-learn/auto_examples/decomposition/plot_pca_vs_lda.html

主成分分析(PCA)和线性判别分析(LDA)是两种常用的降维技术。本文通过在经典的鸢尾花数据集上进行二维投影的比较,展示了这两种方法的区别和应用场景。

鸢尾花数据集代表了3种鸢尾花(山鸢尾、变色鸢尾和维吉尼亚鸢尾),包含4个属性:花萼长度、花萼宽度、花瓣长度和花瓣宽度。

主成分分析(PCA)应用于该数据集,识别出能够解释数据中最大方差的属性组合(主成分,或特征空间中的方向)。在这里,我们将不同的样本绘制在前两个主成分上。

线性判别分析(LDA)试图识别能够解释类间最大方差的属性。特别地,LDA与PCA不同,是一种有监督的方法,使用已知的类别标签。

explained variance ratio (first two components): [0.92461872 0.05306648]
import matplotlib.pyplot as plt
from sklearn import datasets
from sklearn.decomposition import PCA
from sklearn.discriminant_analysis import LinearDiscriminantAnalysis

iris = datasets.load_iris()
X = iris.data
y = iris.target
target_names = iris.target_names

pca = PCA(n_components=2)
X_r = pca.fit(X).transform(X)

lda = LinearDiscriminantAnalysis(n_components=2)
X_r2 = lda.fit(X, y).transform(X)

# 每个成分解释的方差百分比
print(
    "explained variance ratio (first two components): %s"
    % str(pca.explained_variance_ratio_)
)

colors = ["navy", "turquoise", "darkorange"]
lw = 2

for color, i, target_name in zip(colors, [0, 1, 2], target_names):
    plt.scatter(
        X_r[y == i, 0], X_r[y == i, 1], color=color, alpha=0.8, lw=lw, label=target_name
    )
plt.legend(loc="best", shadow=False, scatterpoints=1)
plt.title("PCA of IRIS dataset")

plt.figure()
for color, i, target_name in zip(colors, [0, 1, 2], target_names):
    plt.scatter(
        X_r2[y == i, 0], X_r2[y == i, 1], alpha=0.8, color=color, label=target_name
    )
plt.legend(loc="best", shadow=False, scatterpoints=1)
plt.title("LDA of IRIS dataset")

plt.show()

Total running time of the script:(0 minutes 0.086 seconds)

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号