Machine Learning

Lasso 와 Ridge 회귀 (regression)

with_AI 2022. 5. 25. 11:51
 Lasso, Ridge : Linear Regression 모델이 고차원 공간에 over fitting이 쉽게 되는 문제를 해결한 기법

 

Lasso

  • weight의 L1 term을 Loss function에 더해준다
  • Loss가 증가한다.
  • 추가된 항 (L1 term)도 gradient descent algorithm의 최적화 대상에 속한다.
  • L1 term을 제약조건이라고 부르고 또는 Regularization term이라고 한다. (L1 규제)

 

 

Ridge

  • weight의 L2 term을 Loss function에 더해준다
  • Loss가 증가한다.
  • 추가된 항 (L2 term)도 gradient descent algorithm의 최적화 대상에 속한다.
  • L2 term을 제약조건이라고 부르고 또는 Regularization term이라고 한다. (L2 규제)

 

 

Lasso or Ridge를 적용했을때 성능이 향상됐다 -> 모델에 사용되는 feature vector가 차원을 줄일 필요가 있는 방증

  • -> feature selection이 성능 향상을 가져온다.
  • Regularization을 할 때, weight를 사용하는 방식을 weight decay라고 한다.
  • weight decay를 주개 되면, Gradient descnet algorithm이 loss space를 탐색할 때 제약조건을 받게 되는 효과가 존재
  • 제약 조건 때문에 특정 가중치들이 사라지는 효과가 생기면서(0에 가깝거나 0이 됨) feature subset selection을 가지는 효과가 있다.

 

라소와 릿지는 현업에서 자주 쓰이는 모델이기 때문에 알아두어야 한다.

'Machine Learning' 카테고리의 다른 글

나이브베이즈 (Naive_bayes) 분류 모델  (0) 2022.05.27
LightGBM에 대하여  (0) 2022.05.25
XGBoost 기초 설명  (0) 2022.05.25
선형회귀와 LGBM 실습  (0) 2022.05.17
선형회귀 (Linear Regression)와 성능평가 지표  (0) 2022.05.16