Deep learning

3. Cost Function

PIYA 2021. 12. 17.

 

 

-

 

 

전편에서 예측값과 실제값의 차이를 계산하는 손실함수 Loss function에 대해서 공부했다

 

이 Loss function은 사실, 한 개의 데이터에 대해 예측값과 실제값 차를 계산하는 함수다

 

Cost Function은, 전체 데이터셋에 대해서 이 로스값을 계산한다고 이해할 수 있다

 

 

 

$$                  (x^{(1)}, y^{(1)}), ..., (x^{(m)}, y^{(m)})            $$


여기 m개의 \((x,y)\)샘플이 있고, 모든 샘플에 대해 \( \hat{y}^{(i)} \approx y^{(i)}\)를 계산하는 식을 써보면 아래와 같다

 

$$   \mathcal{J} (w,b) = \frac{1}{m} \sum^m_{i=1} \mathcal{L} ( \hat{y}^{(i)}, y^{(i)} )   $$

 

파라미터 w와 b를 함수의 인자로 쓰는 이유는,

모델 러닝 과정이 '예측값 \(\hat{y}\)과 ground truth \(y\)의 차이를 최소로 하는' 파라미터 w와 b를 구하는 것이기 때문이다

 

 

 

 

 

'Deep learning' 카테고리의 다른 글

6. L-p Norm, 노름  (0) 2021.12.21
5. Chain Rule  (0) 2021.12.19
4. 경사하강법, Gradient Descent  (0) 2021.12.18
2. Loss Function  (0) 2021.12.17
1. deep learning intro: 용어 정리  (0) 2021.12.17

댓글