evaluation metric : 머신러닝 모델을 평가하는 기준. (= performance measure P)
- 머신러닝 모델의 성능을 평가하는 방법은 어떤 task(T)냐에 따라 다릅니다.
- 각 evaluation metric마다, 중요하게 보는 기준이 다릅니다.(중점으로 평가하는 항목이 다릅니다.)
Metric for Classification
Metric for Regression
1. MSE(Mean Squared Error) → 예측값과 실제값 사이의 차이를 제곱한 뒤 평균 낸 값.(unit-sensitive)
2. R^2 Score → 실제 값의 분산 대비, 예측 모델이 얼마나 더 실제 값을 잘 맞췄는지의 비율을 계산.(best가 1, worst가 0)
Metric for Clustering
- Silhouette Score → 내 핀구들과 잘 붙어있고, 다른 친구들과 잘 떨어져있는지를 측정하는 지표.
- 어떠한 평가 기준을 선택하느냐에 따라서, 같은 모델도 다른 성능이 나올 수 있습니다.
- 문제 해결에 가장 도움이 될 것 같은 "평가 지표"를 선택하는 것이 중요합니다!
반응형
'Machine_Learning > 이론' 카테고리의 다른 글
Machine Learning Workflow-02. ML Framework : Scikit-Learn (0) | 2022.11.02 |
---|---|
Machine Learning Workflow-01. 머신러닝 프로젝트 수행방법 (0) | 2022.11.02 |
머신러닝 기초 개념-06. loss function (0) | 2022.10.28 |
머신러닝 기초 개념-05. feature engineering (0) | 2022.10.27 |
머신러닝 기초 개념-04. inference (0) | 2022.10.26 |