loss function : 모델의 inference 결과(예측값)와 실제 값(y) 사이의 틀린 정도를 계산하는 함수.
Source : https://datahacker.rs/003-pytorch-how-to-implement-linear-regression-in-pytorch/
- predicted value와 target value 사이의 차이를 계산해주는 함수.
- 덜 틀릴 수록(=차이가 적을 수록) 학습을 잘한 것입니다.
- 그럼 Loss function의 결과에 영향을 주는 변수는 무엇일까? → parameter! (weights)
- Loss function의 계산 결과가 가장 작아질 수 있는 parameter를 찾는 것이 학습의 목표가 됩니다
Loss Function Optimization
Source : https://www.kaggle.com/mrhippo/data-science-notes5-deep-learning-ann
- Loss function이 최적의 값을 가질 수 있는 파라미터를 찾기 위해서는 파라미터를 적절하게 업데이트 해주어야 합니다.
- 성능이 향상되는 방향으로 파라미터를 업데이트 해주는 것이 중요합니다!(=loss가 줄어드는 방향)
- Loss space에서 최적의 파라미터 조합을 찾는 문제는 수학적으로 매우 어렵습니다. (고차원에서의 최적화 문제는 해답을 찾기가 어려움)
- 현실적으로 최적의 파라미터 조합을 찾을 수 있는 “Gradient Descent Algorithm” 이 제일 많이 사용됩니다.
https://blog.clairvoyantsoft.com/the-ascent-of-gradient-descent-23356390836f
- Gradient Descent algorithm은 산맥에서 임의의 포인트에 떨어졌을 때, 현재 서 있는 위치에서 가장 가파른 방향으로 한 발자국씩 내려가는 방법으로 최선을 다해 밑바닥으로 내려갈 수 있는 방법입니다.
- practical하게 굉장히 좋은 파라미터 조합을 잘 찾아주며, 대부분의 머신러닝 모델에 적용되어 있는 최적화 방식입니다.
- Gradient Descent algorithm은 파라미터가 점차 Loss function에서 최소값을 가질 수 있게 파라미터를 업데이트 해줍니다.
- 단, 무조건 global minimum(최소값)을 찾는 것은 아닙니다. local minimum(극소값)을 찾을 수도 있습니다.(하지만, 극소값은 무조건 찾습니다)
반응형
'Machine_Learning > 이론' 카테고리의 다른 글
Machine Learning Workflow-01. 머신러닝 프로젝트 수행방법 (0) | 2022.11.02 |
---|---|
머신러닝 기초 개념-07. evaluation metric (0) | 2022.10.28 |
머신러닝 기초 개념-05. feature engineering (0) | 2022.10.27 |
머신러닝 기초 개념-04. inference (0) | 2022.10.26 |
머신러닝 기초 개념-03. training (0) | 2022.10.26 |