CS/Deep learning

3. Cost Function

PIYA 2021. 12. 17.

목차

     

     

    -

     

     

    전편에서 예측값과 실제값의 차이를 계산하는 손실함수 Loss function에 대해서 공부했다

     

    이 Loss function은 사실, 한 개의 데이터에 대해 예측값과 실제값 차를 계산하는 함수다

     

    Cost Function은, 전체 데이터셋에 대해서 이 로스값을 계산한다고 이해할 수 있다

     

     

     

    $$                  (x^{(1)}, y^{(1)}), ..., (x^{(m)}, y^{(m)})            $$


    여기 m개의 \((x,y)\)샘플이 있고, 모든 샘플에 대해 \( \hat{y}^{(i)} \approx y^{(i)}\)를 계산하는 식을 써보면 아래와 같다

     

    $$   \mathcal{J} (w,b) = \frac{1}{m} \sum^m_{i=1} \mathcal{L} ( \hat{y}^{(i)}, y^{(i)} )   $$

     

    파라미터 w와 b를 함수의 인자로 쓰는 이유는,

    모델 러닝 과정이 '예측값 \(\hat{y}\)과 ground truth \(y\)의 차이를 최소로 하는' 파라미터 w와 b를 구하는 것이기 때문이다

     

     

     

     

     

    'CS > Deep learning' 카테고리의 다른 글

    6. L-p Norm, 노름  (0) 2021.12.21
    5. Chain Rule  (0) 2021.12.19
    4. 경사하강법, Gradient Descent  (0) 2021.12.18
    2. Loss Function  (0) 2021.12.17
    1. deep learning intro: 용어 정리  (0) 2021.12.17

    댓글