릿지(Ridge)는 머신러닝과 통계에서 사용되는 릿지 회귀(Ridge Regression) 또는 릿지 정규화(Ridge Regularization) 를 의미합니다. 이는 선형 회귀(Linear Regression)의 일종으로, 과적합(Overfitting)을 방지하기 위해 가중치(Weight)에 패널티를 추가하는 방법입니다.
릿지 회귀는 기존 선형 회귀에 L2 패널티를 추가한 형태입니다
✅ 다중 공선성 해결
✅ 변수 선택이 아닌 가중치 감소
✅ λ 값 조절이 중요
비교 항목 | 릿지 회귀 (Ridge) | 라쏘 회귀 (Lasso) |
---|---|---|
정규화 방식 | L2 정규화 (제곱합) | L1 정규화 (절댓값 합) |
과적합 방지 | 가능 | 가능 |
계수 축소 | 모든 계수를 작게 만듦 | 일부 계수를 0으로 만듦(변수 선택 효과) |
다중 공선성 해결 | 효과적 | 효과적이지만 릿지보다 덜 안정적 |
변수 선택 기능 | 없음 | 있음 |
import numpy as np
import matplotlib.pyplot as plt
from sklearn.linear_model import Ridge
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
from sklearn.datasets import make_regression
# 데이터 생성
X, y = make_regression(n_samples=100, n_features=1, noise=15, random_state=42)
# 데이터 스케일링
scaler = StandardScaler()
X_scaled = scaler.fit_transform(X)
# 훈련/테스트 데이터 분할
X_train, X_test, y_train, y_test = train_test_split(X_scaled, y, test_size=0.2, random_state=42)
# 릿지 회귀 모델 학습
ridge = Ridge(alpha=1.0) # λ = 1.0
ridge.fit(X_train, y_train)
# 예측값
y_pred = ridge.predict(X_test)
# 그래프 시각화
plt.scatter(X_test, y_test, color="blue", label="Actual")
plt.plot(X_test, y_pred, color="red", linewidth=2, label="Ridge Regression")
plt.legend()
plt.show()
릿지 회귀(Ridge Regression) 는 선형 회귀의 일종으로 L2 정규화를 사용하여 과적합을 방지하고 다중 공선성 문제를 해결하는 기법입니다. 하지만 변수 선택 기능은 없으며, 모든 변수의 영향을 줄이는 방식으로 작동합니다.
윈도우 운영체제의 노트북에서는 iPhone 유선 테더링이 잘 안되는 경우가 많습니다. 보통 iPhone의 드라이버가 설치가 안되있어서인…
안녕하세요, 혹시 이런 생각해 본 적 없으신가요? "내가 투자한 회사는 누가 감시하고, 어떻게 운영될까?" 오늘은…
1. Gemini CLI란 무엇인가요? Gemini CLI는 터미널 환경에서 직접 Gemini 모델과 상호작용할 수 있도록 만들어진…
과적합은 머신러닝에서 학습용데이터를 과하게 학습하여, 실제데이터를 예측하지 못하는 현상을 말합니다. 인공지능(AI)의 학습 방법은 우리가 시험공부를…