데이터로그😎
LDA (Linear Descriminant Analysis) 본문
LDA vs PCA
PCA | LDA | |
특징 |
|
|
진행 과정 |
|
|
LDA 2차원 축소
from sklearn.discriminant_analysis import LinearDiscriminantAnalysis
from sklearn.preprocessing import StandardScaler
from sklearn.datasets import load_iris
iris = load_iris()
# 스케일링
iris_scaled = StandardScaler().fit_transform(iris.data)
# LDA
lda= LinearDiscriminantAnalysis(n_components = 2)
# LDA는 클래스의 정보를 같이 입력해줘야 한다.
# 지도학습처럼 feature, target이 같이 들어간다.
lda.fit(iris_scaled, iris.target)
iris_lda = lda.transform(iris_scaled)
import matplotlib.pyplot as plt
import seaborn as sns
import pandas as pd
iris_lda_df = pd.DataFrame(
iris_lda,
columns =['component_1', 'component_2'])
iris_lda_df['target'] = iris.target
sns.scatterplot(
x='component_1',
y='component_2',
hue = 'target',
palette = 'muted',
data = iris_lda_df)
plt.title('LDA')
plt.show()
'머신러닝 > 차원축소' 카테고리의 다른 글
SVD (Singular Value Decomposition) (0) | 2023.09.05 |
---|---|
PCA (Principal Component Analysis) (0) | 2023.09.05 |