Study 1. 시그모이드 함수
딥러닝을 공부하다 보면 시그모이드 함수가 굉장히 많이 등장하는데,
꽤 오랫동안 \(\sigma(x) = \frac{1}{1+e^{-x}}\)만이 시그모이드 함수라고 알고있었다
그런데 시그모이드 함수가 어떤 특정 함수 한개를 가리키는 말이 아니더라
S자형 곡선을 가진 함수를 시그모이드 함수라 한다
다른 Sigmoid 함수의 예로는 tanh (하이퍼볼릭 탄젠트) 등이 있다
\(tanh(x) = \frac{e^{x} - e^{-x}}{e^{x} + e^{-x}}\)
Study 2. Logistic 함수
시그모이드 함수의 한 종류로, 흔히 알고있는 \(f(x) = \frac{1}{1+e^{-x}}\)이 함수가 Logistic 함수이다
Study 3. Regression
\(\hat{y}\) = wx + b 형태를 Regression Model(회귀분석)이라 하고,
이때 w는 coefficient(회귀계수), b는 y절편(intercept)이다
데이터의 경향성 등을 예측하기 좋은 통계학 자료 분석 방법 중 하나이다
Study 4. Logistic Regression
그럼 결국에 Logistic Regression이란 뭐냐?
Logistic function을 쓰는 Regression analysis 라고 이해했다
일반적으로 딥러닝에서 로지스틱회귀를 쓸 때 \(\hat{y}\) = wx + b로 놓는다
x.shape = (\(n_x\), m)일 때, w.shape = (m, \(n_x\))일 것이고
x를 행렬로 나타내면 아래와 같이 나타낼 수 있다
w랑 b는 다음에 자세히 써보자
$$
x = \begin{bmatrix}
x^{(1)}_1 & & x^{(m)}_1 \\
\vdots & \cdots & \vdots \\
x^{(1)}_{n_x} & & x^{(m)}_{n_x}
\end{bmatrix}
$$
Study 5. \(\hat{y}\) 시그모이드를 쓰는 이유
$$ \hat{y}: P(y=1|x), 0\le\hat{y}\le1 $$
헷갈리기 쉬운데, \( \hat{y} \)은 y의 예측값이 아니라, y가 1이 될 확률이다
\(\hat{y}\) = wx + b의 logistic regression에서,
wx + b의 값은 \(0\le\hat{y}\le1\)이 아니므로, 이를 만족시키기 위해 Sigmoid\((\sigma)\) 함수를 사용한다
아래와 같이 wx+b에 \(\sigma()\)를 씌우면 \(\hat{y}\)의 값을 확률값으로 사용할 수 있다
모델의 Output 레이어에서 모델의 결과값을 확률값으로 대응시키기 위해 이러한 방법을 자주 사용한다
'Deep learning' 카테고리의 다른 글
6. L-p Norm, 노름 (0) | 2021.12.21 |
---|---|
5. Chain Rule (0) | 2021.12.19 |
4. 경사하강법, Gradient Descent (0) | 2021.12.18 |
3. Cost Function (0) | 2021.12.17 |
2. Loss Function (0) | 2021.12.17 |
댓글