sigmoid (2) 썸네일형 리스트형 딥러닝 3 - 인공 신경망(Neural Network), 소프트맥스(Softmax) 함수 1. 인공 신경망 인공 신경망을 보다 쉽게 이해하기 위해 3층 인공 신경망을 예로 설명을 드리겠습니다. 우선 0층에서 x1과 x2 (입력값)을 입력합니다. 0층에서 받은 입력값은 각 w(가중치)에 곱해져 1층의 a로 값이 가게 됩니다. (각 층에있는 1은 편향인 b(=-θ)를 표현하기 위함 입니다.) 여기서 활성화 함수인 Sigmoid함수를 사용하여 z값이 도출됩니다. 위 과정을 2층에서 한번 더 거친 뒤 마지막 3층에선 일반 벡터를 확률 벡터로 바꾸는 Softmax함수를 통해 y(결과값)가 도출되게 됩니다. (괄호 안의 숫자는 층을 뜻합니다.) 2. 행렬 행렬의 덧셈 $$ \begin{pmatrix} a & b \\ c & d \end{pmatrix} + \begin{pmatrix} e & f \\ g.. 딥러닝 2 - 활성화 함수(Activation function) 1. 퍼셉트론 구현 이전 게시물에서 퍼셉트론에 사용된 식은 $$ w_{1}x_{1}+w_{2}x_{2} \leq \theta \ 일 \ 때 , \ y=0 $$ $$ w_{1}x_{1}+w_{2}x_{2} > \theta \ 일 \ 때 , \ y=1 $$ 으로 표현했었습니다. 여기서 조금더 쉽게 구현하기 위해 $$ b =- \theta \ 로 \ 정의하고 $$ 단위 계단 함수인 $$ u(t) =\begin{cases}0 & x \leq 0\\1 & x > 0\end{cases} $$ 를 사용하여 $$ y=u(w_{1}x_{1}+w_{2}x_{2} + b) $$ 로 표현 할 수 있습니다. 하지만 머신러닝은 미분을 통해 학습하게 되는데, 위에서 사용한 단위 계단 함수는 x=0지점에서 미분이 불가능하기 때문에 .. 이전 1 다음