비교 항목 | 릿지 회귀 (Ridge Regression) | 라쏘 회귀 (Lasso Regression) |
---|---|---|
정규화 방식 | L2 정규화 (제곱합 ∑βj2\sum \beta_j^2∑βj2) | L1 정규화 (절댓값 합 (\sum |
과적합 방지 | 가능 (모든 계수를 작게 만듦) | 가능 (일부 계수를 0으로 만들어 변수 선택) |
변수 선택 | ❌ 없음 (모든 변수를 유지) | ✅ 있음 (일부 계수를 0으로 만듦) |
계수 축소 방식 | 모든 계수를 작게 만듦 | 불필요한 변수의 계수를 0으로 만들어 완전히 제거 |
다중 공선성 해결 | ✅ 효과적 | ✅ 효과적이지만 릿지보다 불안정할 수 있음 |
해석 가능성 | ❌ 낮음 (모든 변수를 유지) | ✅ 높음 (불필요한 변수 제거) |
적합한 데이터셋 | 연속적인 데이터 (변수 선택이 필요하지 않은 경우) | 고차원 데이터 (변수 선택이 필요한 경우) |
모델의 복잡도 조절 | 모델의 크기만 줄임 (모든 변수를 사용) | 모델을 단순화하고 중요 변수만 선택 |
아래 그래프는 릿지와 라쏘의 계수 변화를 나타냅니다.
import numpy as np
import matplotlib.pyplot as plt
from sklearn.linear_model import Ridge, Lasso
from sklearn.datasets import make_regression
# 데이터 생성
X, y = make_regression(n_samples=100, n_features=10, noise=10, random_state=42)
# 릿지와 라쏘 모델 생성
ridge = Ridge(alpha=1.0)
lasso = Lasso(alpha=0.1)
# 모델 학습
ridge.fit(X, y)
lasso.fit(X, y)
# 계수 시각화
plt.figure(figsize=(10, 5))
plt.subplot(1, 2, 1)
plt.bar(range(len(ridge.coef_)), ridge.coef_)
plt.title("Ridge Regression Coefficients")
plt.xlabel("Feature Index")
plt.ylabel("Coefficient Value")
plt.subplot(1, 2, 2)
plt.bar(range(len(lasso.coef_)), lasso.coef_)
plt.title("Lasso Regression Coefficients")
plt.xlabel("Feature Index")
plt.ylabel("Coefficient Value")
plt.show()
상황 | 추천 모델 |
---|---|
모든 변수를 유지하고 싶음 | 릿지 (Ridge) |
다중 공선성이 높은 경우 | 릿지 (Ridge) |
중요하지 않은 변수를 자동으로 제거하고 싶음 | 라쏘 (Lasso) |
데이터에 변수가 많고 일부만 중요한 경우 | 라쏘 (Lasso) |
변수 선택 기능이 필요 없음 | 릿지 (Ridge) |
모델을 더 간결하게 만들고 싶음 | 라쏘 (Lasso) |
고차원 데이터에서 변수 선택이 필요하면 라쏘, 모든 변수를 유지하면서 조절하고 싶다면 릿지!
오늘은 AI 생태계에 혁신적인 변화를 가져올 것으로 예상되는 MCP(Model Context Protocol)에 대해 상세히 알아보겠습니다. 2024년…
1. TPM이란? TPM(Trusted Platform Module)은 국제 표준 기반의 보안 하드웨어 칩으로, 컴퓨터나 디지털 장비 내에서…
시즌2, 기대했는데... 실망도 두 배!두뇌싸움을 기대했는데, 전략도 없는 자기들만의 감정에 따른 편가르기, 정치싸움이 되어 버린…
BPF(Berkeley Packet Filter) 도어는 해커가 관리자 몰래 뒷문을 새로 만든 것입니다.해커가 명령을 내려 특정 데이터들을 뒷문을…
1. IPC의 개념과 목적 1.1 IPC란 무엇인가? IPC (Inter-Process Communication)는 운영체제 내의 서로 독립적인 프로세스…