-
전편에서 예측값과 실제값의 차이를 계산하는 손실함수 Loss function에 대해서 공부했다
이 Loss function은 사실, 한 개의 데이터에 대해 예측값과 실제값 차를 계산하는 함수다
Cost Function은, 전체 데이터셋에 대해서 이 로스값을 계산한다고 이해할 수 있다
$$ (x^{(1)}, y^{(1)}), ..., (x^{(m)}, y^{(m)}) $$
여기 m개의 \((x,y)\)샘플이 있고, 모든 샘플에 대해 \( \hat{y}^{(i)} \approx y^{(i)}\)를 계산하는 식을 써보면 아래와 같다
$$ \mathcal{J} (w,b) = \frac{1}{m} \sum^m_{i=1} \mathcal{L} ( \hat{y}^{(i)}, y^{(i)} ) $$
파라미터 w와 b를 함수의 인자로 쓰는 이유는,
모델 러닝 과정이 '예측값 \(\hat{y}\)과 ground truth \(y\)의 차이를 최소로 하는' 파라미터 w와 b를 구하는 것이기 때문이다
'CS > Deep learning' 카테고리의 다른 글
6. L-p Norm, 노름 (0) | 2021.12.21 |
---|---|
5. Chain Rule (0) | 2021.12.19 |
4. 경사하강법, Gradient Descent (0) | 2021.12.18 |
2. Loss Function (0) | 2021.12.17 |
1. deep learning intro: 용어 정리 (0) | 2021.12.17 |
댓글