1. PCA란?

PCA(Principal Component Analysis)는 데이터의 차원을 축소하면서도 데이터의 분산을 최대한 보존하는 기법입니다. 즉, 고차원 데이터를 저차원으로 변환하여 주요 정보만 유지하면서 계산 비용을 줄이고, 데이터의 시각화를 돕는 데 사용됩니다.

2. PCA의 원리

PCA는 고차원 데이터를 저차원의 공간으로 투영하면서 중요한 정보(분산이 큰 방향)를 유지합니다. 이를 위해 다음 단계를 수행합니다.

3. PCA 알고리즘 단계

1) 데이터 정규화 (Normalization)

  • PCA를 수행하기 전에 데이터의 스케일을 맞추는 것이 중요합니다. 각 특성(feature)이 서로 다른 범위를 가지면, 특정 특성이 PCA 결과에 더 큰 영향을 줄 수 있기 때문입니다.
  • 보통 평균을 0, 분산을 1로 정규화(Standardization)합니다.
    • x : 원본 데이터 값
    • μ : 해당 특성의 평균
    • σ : 해당 특성의 표준편차

2) 공분산 행렬 계산

  • 각 특성 간의 관계를 분석하기 위해 공분산 행렬을 계산합니다.
  • 공분산 행렬은 데이터의 분산과 특성 간의 상관관계를 나타냅니다.
  • xi​는 개별 데이터 샘플,
  • xˉ는 각 특성의 평균 벡터,
  • Σ는 공분산 행렬입니다.

3) 고유값(Eigenvalues) 및 고유벡터(Eigenvectors) 계산

  • 공분산 행렬을 고유값 분해(Eigendecomposition)하여 고유값(eigenvalues)과 고유벡터(eigenvectors) 를 구합니다.
  • 고유값은 데이터의 분산을 설명하는 값이고, 고유벡터는 새로운 축을 형성합니다.
  • 여기서,
    • v는 고유벡터 (주성분),
    • λ는 고유값 (분산의 크기)입니다.
  • 고유값이 클수록 해당 고유벡터가 설명하는 분산이 크므로, 큰 고유값을 가지는 고유벡터들이 데이터의 주요 정보를 담고 있습니다.

4) 주성분 선택

  • 고유값이 큰 순서대로 정렬하여 상위 k개의 주성분을 선택합니다.
  • 데이터의 분산을 충분히 설명하는 누적 설명 분산 비율(Cumulative Explained Variance Ratio) 을 보고 적절한 k를 선택합니다.
  • ​​보통 누적 설명 분산 비율이 90%~95% 이상이 되도록 주성분을 선택합니다.

5) 데이터 변환 (차원 축소)

  • 선택한 k개의 주성분으로 원본 데이터를 변환합니다.
  • 데이터 행렬 XXX에 주성분 행렬(고유벡터 행렬) Vk​를 곱하여 차원 축소된 데이터를 얻습니다.
  • 여기서,
    • X : 원본 데이터 행렬 (정규화된 형태)
    • Vk​ : 선택된 k개의 주성분(고유벡터) 행렬
    • X′ : 변환된 k-차원 데이터

4. PCA의 장점과 단점

장점

  • 데이터의 차원을 효과적으로 축소하여 계산량을 줄일 수 있음.
  • 데이터의 분산을 유지하면서 노이즈를 제거하고 학습 성능을 향상시킬 수 있음.
  • 시각화(2D, 3D 변환) 에 유용함.

단점

  • 선형 변환을 기반으로 하므로 비선형적인 구조를 반영하지 못함.
  • 해석이 어려울 수 있음 (축소된 차원이 기존 특성과 직접적인 연관이 없을 수 있음).
  • 주성분을 선택하는 과정에서 중요한 정보가 손실될 가능성이 있음.

5. PCA 적용 예시 (Python 코드)

아래는 PCA를 활용한 차원 축소 예제입니다.

import numpy as np
import matplotlib.pyplot as plt
from sklearn.decomposition import PCA
from sklearn.preprocessing import StandardScaler
from sklearn.datasets import load_iris

# 데이터 로드
data = load_iris()
X = data.data # 특성 데이터

# 데이터 정규화
scaler = StandardScaler()
X_scaled = scaler.fit_transform(X)

# PCA 적용 (2차원으로 축소)
pca = PCA(n_components=2)
X_pca = pca.fit_transform(X_scaled)

# 변환된 데이터 시각화
plt.scatter(X_pca[:, 0], X_pca[:, 1], c=data.target, cmap='viridis', alpha=0.7)
plt.xlabel("Principal Component 1")
plt.ylabel("Principal Component 2")
plt.title("PCA 결과 (Iris 데이터)")
plt.colorbar(label="Target Label")
plt.show()

# 설명된 분산 비율 확인
print("Explained Variance Ratio:", pca.explained_variance_ratio_)

6. PCA의 응용 분야

  1. 데이터 시각화 : 고차원 데이터를 2D/3D로 변환하여 시각적으로 분석 가능.
  2. 차원 축소 : 모델의 성능을 유지하면서 학습 속도를 향상.
  3. 노이즈 제거 : 데이터에서 주요 정보만 유지하고 불필요한 요소 제거.
  4. 이미지 압축 : 주요 특징만 추출하여 저장 공간 절약.
  5. 금융 데이터 분석 : 주식 가격, 리스크 요인 등의 요약 분석.

7. PCA 확장 기법

  • Kernel PCA : 비선형 데이터에 적용하기 위해 커널 기법 사용.
  • Sparse PCA : 희소성 제약을 적용하여 해석 가능성 개선.
  • Incremental PCA : 대규모 데이터셋에서 배치 학습을 활용.

8. 결론

PCA는 데이터의 주요 특징을 유지하면서 차원을 줄이는 강력한 기법입니다. 특히, 데이터 분석과 머신러닝 모델의 성능을 최적화하는 데 유용합니다. 하지만 비선형 데이터에 대한 한계가 있으므로, 필요에 따라 Kernel PCA 등의 변형 기법을 활용할 수 있습니다.

zerg96

Recent Posts

노트북(윈도우)에서 아이폰 유선 테더링 하기

윈도우 운영체제의 노트북에서는 iPhone 유선 테더링이 잘 안되는 경우가 많습니다. 보통 iPhone의 드라이버가 설치가 안되있어서인…

3일 ago

오라클 래치(Latch)

오라클 데이터베이스의 성능을 논할 때, 내부적으로 발생하는 경합(Contention)은 피할 수 없는 주제다. 특히 다수의 프로세스가…

7일 ago

사장님도 3표, 나도 3표? ‘3%룰’ 완전 정복!

안녕하세요, 혹시 이런 생각해 본 적 없으신가요? "내가 투자한 회사는 누가 감시하고, 어떻게 운영될까?" 오늘은…

3주 ago

Vector Store(벡터 스토어)

'벡터 스토어' 완벽 가이드: AI 시대, 데이터의 새로운 심장을 만나다 IT 업계는 인공지능(AI)이라는 거대한 패러다임의…

3주 ago

Gemini CLI (재미나이 CLI)

1. Gemini CLI란 무엇인가요? Gemini CLI는 터미널 환경에서 직접 Gemini 모델과 상호작용할 수 있도록 만들어진…

3주 ago

과적합 (overfitting)

과적합은 머신러닝에서 학습용데이터를 과하게 학습하여, 실제데이터를 예측하지 못하는 현상을 말합니다. 인공지능(AI)의 학습 방법은 우리가 시험공부를…

1개월 ago