지난 번에는 분류모델의 정확도를 구할 수 있는 모형에 대해서 알아보았다.
이번에는 회기 모형의 모델 성능 평가 지표에는 어떤 것이 있으며 언제 이 성능평가 지표를 사용하는지에 대해서 알아보도골 하겠다. 대부분의 회기 모델의 성능 평가 지표는 예측한 Y 값과 실제 Y 갑의 오차를 바탕으로 구해지는 것을 알 수 있다. MAE, MSE, RMSE, MAPE, MPE, MSLE 등 여러가지 성능평가 지표에서 볼 수 있듯이, 마지막의 E는 모두 error의 약자라고 할 수 있다. 그렇다면 어떤 에러를 활용하여 모델의 성능을 구할때 좋은지 살펴 보도록 하겠다.
1) MAE (Mean Absolute Error, 평균 절대 오차)
- 방식: 실제 값과 예측 값의 차이의 절대값을 평균으로 모델 성능 평가
- 해석: 작을 수록 좋은 모델
- 특징:
. 실제 값과 예측 값을 그대로 사용하기 때문 오차의 크기로 있는 그대로 오류을 측정하는데 사용할 수 있음
(예: 2.5가 나온 결과는 5가 나오는 결과에 2배 더 좋은 모델로 볼 수 있음)
. 에러의 손실이 선형적으로 올라갈 때 적합, 이상치가 많을 때 적합
- 그래프 및 산식
2) MSE (Mean Squared Error, 평균 제곱 오차)
- 방식: 실제 값과 예측 값의 차이를 제곱해서 평균으로 모델 성능 평가
- 해석: 작을 수록 좋은 모델
- 특징:
. 예측값과 실제값의 차이의 면접의 합과 같다고 생각하면 됨
. 특이값이 존재하면 수치가 많이 늘어나는 현상이 있음
- 그래프 및 산식
3) RMSE (Root Mean Squared Error, 평균 제곱근 오차)
- 방식: MSE에 루트를 씌운 값으로 모델 성능 평가
- 해석: 작을 수록 좋은 모델
- 특징:
. MSE 값은 오류의 제곱으로 구하므로 실제 오류 평균보다 커지는 특성이 있어 루트를 씌워서 사용
. 에러가 크면 클수록 그에 따른 가중치가 높이 반영
. 에러에 따른 손실이 기하 급수적으로 올라가는 상황에서 쓰기 적합
- 그래프 및 산식
4) MAPE (Mean Absolute Percentage Error, 평균 절대비율 오차)
- 방식: MAE를 퍼센트로 변환 값으로 모델 성능 평가
- 해석: 작을 수록 좋은 모델
- 특징:
. 오차가 실제값에서 차지하는 상대적인 비율을 산출
. 모델에 대한 편향이 존재
- 그래프 및 산식
5) MPE (Mean Percentage Error, 평균 비율 오차)
- 방식: MAPE에서 절대값을 제외한 지표 값으로 모델 성능 평가
- 해석: 작을 수록 좋은 모델
- 특징:
. 스케일이 서로 다른 데이터 간의 차이를 비교할 수 있다는 것이 장점
. 모델이 underperformance(+) 인지 overperformance(-) 인지 판단
- 그래프 및 산식
각 상황에 맞게 모델의 성능을 잘 평가해 보도록 하자!
'데이터 정보' 카테고리의 다른 글
CICD (지속적통합/지속적배포)로 MLOps를 완성시켜보자! (0) | 2022.12.30 |
---|---|
데이터 엔지니어, DevOps를 넘어 MLOps로 향해 보자! (0) | 2022.12.29 |
머신러닝 분류 모델의 성능 평가 지표 - Precision (정밀도), Recall (재현율), Accuracy (정확도), F1 Score (조화평균) (0) | 2022.12.18 |
NoSQL은 무엇인가? RDBMS와 어떤 차이가 있을까? (0) | 2022.12.11 |
빅데이터 전문 기업에 대해서 알아 볼까? (바이브 컴퍼니, 팔란티어) (2) | 2022.12.09 |