Deep learning

8. Logistic Regression

PIYA 2022. 1. 3.

 

 

-

 

정리

파라미터 w와 b에 대한 비용함수 Cost function \( \mathcal{J}(w,b) \) 는,

 

$$  \mathcal{J}(w,b) = \frac{1}{m} \sum_{i=1}^{m} \mathcal{L}(a^{(i)}, y^{(i)}) $$

 

전편에서 \(    \frac{dL}{dw}      \) 를 계산하는 법을 알았으니,

양변에 \(    \frac{d}{dw}     \)를 씌우면 된다

 

 

$$ \frac{d}{dw} \mathcal{J} = \frac{1}{m} \sum_{i=1}^{m} \frac{d}{dw} \mathcal{L}(a^{(i)}, y^{(i)}) $$

 

 

i=1부터 m까지 계산한다;

 

$$ J=0; \ \ dw=0;\ \  db=0 $$

$$  z^{i} = wx^{i}+b     $$

$$ a^{i} = \sigma(z^i) $$

$$ J \mathrel{+}= -[y^i \log a^i + (1-y^i) \log(1-a^i)] $$

 

$$ dz = a^i-y^i $$

$$ dw \mathrel{+}= x^i dz^i $$

$$ db \mathrel{+}= dz^i $$

$$ J\mathrel{/}=m; \ \  dw\mathrel{/}=m;  \ \  db \mathrel{/}=m $$

 

 

이렇게 하면 \( w := w - \alpha dw \),    \( b := b - \alpha db \)

를 수행하여 파라미터를 업데이트 할 수 있다

 

'Deep learning' 카테고리의 다른 글

7. backpropagation 개념  (0) 2021.12.24
6. L-p Norm, 노름  (0) 2021.12.21
5. Chain Rule  (0) 2021.12.19
4. 경사하강법, Gradient Descent  (0) 2021.12.18
3. Cost Function  (0) 2021.12.17

댓글