선형 회귀의 한 형태로, 정규화(Regularization) 기법을 통해 모델의 과적합(Overfitting)을 방지하는 데 사용함, 릿지 회귀는 회귀 계수의 크기를 제한하여, 복잡한 모델이 되는 것을 막고 모델의 일반화 성능을 높임
1. 릿지 회귀 기본 개념
![]() |
2. 릿지 회귀 장점
1) 과적합 방지
2) 정규화 강도 조절
3. 릿지 회귀 학습 방법
릿지 회귀의 목적은 위 손실 함수를 최소화하는 회귀 계수 벡터 β를 찾는 것으로 주요 학습 방법에는 정규 방정식과 경사 하강법이 있음
1) 정규 방정식
![]() |
2) 경사 하강법
![]() |
4. 릿지 회귀 특징
5. 릿지 회귀와 라쏘 회귀의 비교
릿지 회귀와 비슷한 정규화 방법으로 라쏘 회귀(Lasso Regression)가 있으며 라쏘 회귀는 L1 정규화를 사용하여, 일부 회귀 계수를 0으로 만들어 변수 선택이 가능하게 함
Python의 Scikit-learn 라이브러리를 사용하여 간단하게 릿지 회귀 모델을 구현하는 방법
from sklearn.linear_model import Ridge
from sklearn.model_selection import train_test_split
from sklearn.metrics import mean_squared_error
import numpy as np
# 예제 데이터 생성
X = np.random.rand(100, 1) * 10 # 0~10 사이의 값을 가진 데이터
y = 3 + 2 * X + np.random.randn(100, 1) * 2 # 실제 데이터(잡음 포함)
# 데이터 분할
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
# 릿지 회귀 모델 생성 및 학습 (λ=1)
ridge_model = Ridge(alpha=1.0) # alpha가 λ에 해당
ridge_model.fit(X_train, y_train)
# 예측
y_pred = ridge_model.predict(X_test)
# 평가
mse = mean_squared_error(y_test, y_pred)
print("Mean Squared Error:", mse)
회귀분석-Elastic Net (1) | 2024.11.20 |
---|---|
회귀분석-라쏘 회귀(Lasso Regression) (0) | 2024.11.18 |
회귀분석-다항 회귀(Polynomial Regression) (0) | 2024.10.28 |
회귀분석-선형 회귀(Linear Regression) (0) | 2024.10.18 |
회귀분석(Regression Analysis) (1) | 2024.10.16 |