릿지(Ridge)는 머신러닝과 통계에서 사용되는 릿지 회귀(Ridge Regression) 또는 릿지 정규화(Ridge Regularization) 를 의미합니다. 이는 선형 회귀(Linear Regression)의 일종으로, 과적합(Overfitting)을 방지하기 위해 가중치(Weight)에 패널티를 추가하는 방법입니다.
릿지 회귀는 기존 선형 회귀에 L2 패널티를 추가한 형태입니다
✅ 다중 공선성 해결
✅ 변수 선택이 아닌 가중치 감소
✅ λ 값 조절이 중요
비교 항목 | 릿지 회귀 (Ridge) | 라쏘 회귀 (Lasso) |
---|---|---|
정규화 방식 | L2 정규화 (제곱합) | L1 정규화 (절댓값 합) |
과적합 방지 | 가능 | 가능 |
계수 축소 | 모든 계수를 작게 만듦 | 일부 계수를 0으로 만듦(변수 선택 효과) |
다중 공선성 해결 | 효과적 | 효과적이지만 릿지보다 덜 안정적 |
변수 선택 기능 | 없음 | 있음 |
import numpy as np
import matplotlib.pyplot as plt
from sklearn.linear_model import Ridge
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
from sklearn.datasets import make_regression
# 데이터 생성
X, y = make_regression(n_samples=100, n_features=1, noise=15, random_state=42)
# 데이터 스케일링
scaler = StandardScaler()
X_scaled = scaler.fit_transform(X)
# 훈련/테스트 데이터 분할
X_train, X_test, y_train, y_test = train_test_split(X_scaled, y, test_size=0.2, random_state=42)
# 릿지 회귀 모델 학습
ridge = Ridge(alpha=1.0) # λ = 1.0
ridge.fit(X_train, y_train)
# 예측값
y_pred = ridge.predict(X_test)
# 그래프 시각화
plt.scatter(X_test, y_test, color="blue", label="Actual")
plt.plot(X_test, y_pred, color="red", linewidth=2, label="Ridge Regression")
plt.legend()
plt.show()
릿지 회귀(Ridge Regression) 는 선형 회귀의 일종으로 L2 정규화를 사용하여 과적합을 방지하고 다중 공선성 문제를 해결하는 기법입니다. 하지만 변수 선택 기능은 없으며, 모든 변수의 영향을 줄이는 방식으로 작동합니다.
오늘은 AI 생태계에 혁신적인 변화를 가져올 것으로 예상되는 MCP(Model Context Protocol)에 대해 상세히 알아보겠습니다. 2024년…
1. TPM이란? TPM(Trusted Platform Module)은 국제 표준 기반의 보안 하드웨어 칩으로, 컴퓨터나 디지털 장비 내에서…
시즌2, 기대했는데... 실망도 두 배!두뇌싸움을 기대했는데, 전략도 없는 자기들만의 감정에 따른 편가르기, 정치싸움이 되어 버린…
BPF(Berkeley Packet Filter) 도어는 해커가 관리자 몰래 뒷문을 새로 만든 것입니다.해커가 명령을 내려 특정 데이터들을 뒷문을…
1. IPC의 개념과 목적 1.1 IPC란 무엇인가? IPC (Inter-Process Communication)는 운영체제 내의 서로 독립적인 프로세스…