본문 바로가기

딥러닝

(3)
딥러닝 3 - 인공 신경망(Neural Network), 소프트맥스(Softmax) 함수 1. 인공 신경망 인공 신경망을 보다 쉽게 이해하기 위해 3층 인공 신경망을 예로 설명을 드리겠습니다. 우선 0층에서 x1과 x2 (입력값)을 입력합니다. 0층에서 받은 입력값은 각 w(가중치)에 곱해져 1층의 a로 값이 가게 됩니다. (각 층에있는 1은 편향인 b(=-θ)를 표현하기 위함 입니다.) 여기서 활성화 함수인 Sigmoid함수를 사용하여 z값이 도출됩니다. 위 과정을 2층에서 한번 더 거친 뒤 마지막 3층에선 일반 벡터를 확률 벡터로 바꾸는 Softmax함수를 통해 y(결과값)가 도출되게 됩니다. (괄호 안의 숫자는 층을 뜻합니다.) 2. 행렬 행렬의 덧셈 $$ \begin{pmatrix} a & b \\ c & d \end{pmatrix} + \begin{pmatrix} e & f \\ g..
딥러닝 2 - 활성화 함수(Activation function) 1. 퍼셉트론 구현 이전 게시물에서 퍼셉트론에 사용된 식은 $$ w_{1}x_{1}+w_{2}x_{2} \leq \theta \ 일 \ 때 , \ y=0 $$ $$ w_{1}x_{1}+w_{2}x_{2} > \theta \ 일 \ 때 , \ y=1 $$ 으로 표현했었습니다. 여기서 조금더 쉽게 구현하기 위해 $$ b =- \theta \ 로 \ 정의하고 $$ 단위 계단 함수인 $$ u(t) =\begin{cases}0 & x \leq 0\\1 & x > 0\end{cases} $$ 를 사용하여 $$ y=u(w_{1}x_{1}+w_{2}x_{2} + b) $$ 로 표현 할 수 있습니다. 하지만 머신러닝은 미분을 통해 학습하게 되는데, 위에서 사용한 단위 계단 함수는 x=0지점에서 미분이 불가능하기 때문에 ..
딥러닝 1 - 퍼셉트론(Perceptron) 1. 퍼셉트론 먼저 인공신경망 (Artificial Neural Network)은 동물의 신경망을 모방하여 만든 학습 알고리즘 입니다. 그리고 퍼셉트론 (Perceptron)은 인공신경망의 한 종류이며 가장 간단한 형태로 신경망을 수학적으로 모델링 한 것입니다. x1, x2 - 들어오는 신호, 값 w1, w2 - 가중치(웨이트) θ - 임계값 $$ y =\begin{cases}0 & w_{1}x_{1}+w_{2}x_{2} \leq \theta \\1 & w_{1}x_{1}+w_{2}x_{2} > \theta \end{cases} $$ 위 식으로 간단하게 퍼셉트론을 표현 할 수 있으며 웨이트(가중치) 크면(작으면) 들어오는 값을 크게(작게) 만듭니다. 이후 신호와 웨이트의 두 값이 설정한 임계값이 넘으면 ..