Deep Learning3 신경망2 출력층 설계 기계학습은 분류와 회귀로 나뉜다. 분류는 데이터가 어느 클래스에 속하느냐는 문제이고 (주로 소프트맥스 함수 사용) 회귀는 입력 데이터에서 연속적인 수치를 예측하는 문제이다 (주로 항등 함수 사용). 항등 함수 입력 그대로 출력, 입력과 출력이 항상 같기 때문에 항등 함수 그림으로 표현하면 소프트맥스 함수 분류에서 사용하며 n은 출력층의 뉴런 수, yk는 그 중 k번째 출력을 뜻한다. 소프트맥스 함수의 분자는 입력 신호 ak의 지수함수, 분모는 모든 입력 신호의 지수 함수의 합으로 구성된다. 소프트맥스 함수를 그림으로 표현하면 이런식으로 나오게 되는데 소프트맥스 함수 수식의 분모에서 보면 출력층의 각 뉴런이 모든 입력 신호에서 영향을 받기 때문이다. 소프트맥스 함수는 구현시 주의해야 할 점이 .. 2020. 7. 7. 신경망1 신경망은 입력층, 출력층, 은닉층으로 이루어져 있다. 은닉 층의 뉴런은 입력층, 출력층과 달리 보이지 않는다. 기존 퍼셉트론에서 b는 편향을 나타내는 매개변수로 뉴런이 얼마나 쉽게 활성화되느냐를 제어한다. 이를 기존 네트워크에 추가하면 아래와 같은 그림이 된다. 또한, 조건 분기의 동작들을 함수로 표현해서 간략화 하면 아래와 같은 수식으로 표현할 수 있다. 활성화 함수 가중치를 조합한 결과는 a라는 노드가 되고, 활성화 함수 h()를 통해 y라는 노드로 변환되는 과정을 명시적으로 표현했다. 여기서 h()는 입력 신호의 총합을 출력 신호로 변환해주는 함수로 이를 활성화 함수라고 하며 입력신호의 총합이 활성화를 일으키는지 정하는 역할을 한다. 위의 활성화 함수는 임계값을 경계로 출력이 바뀌는데 이를 계단 함.. 2020. 7. 3. 퍼셉트론 ※공부하면서 적어보는 글이라 틀린 부분이 있을 수 있습니다.. 혹시 잘못된 부분 있으면 지적 감사합니다 퍼셉트론 다수의 신호를 입력 받아 하나의 신호(0 혹은 1)를 출력하는 것. 각각 x1, x2는 입력 신호, y는 출력 신호, w1, w2는 가중치이고 원을 뉴런 혹은 노드라 부른다. 동작 원리 입력 신호가 뉴런에 보내질 때 각각 고유한 가중치가 곱해진다. 그 신호의 총합이 정해진 한계값을 넘으면 1을 출력하고 아니면 0을 출력한다. 이를 수식으로 표현하면 이 구조로 각각 가중치와 편향 값 설정을 통해 AND, NAND, OR게이트를 만들 수 있지만 배타적 논리합인 XOR을 만들 수는 없다. 다층 퍼셉트론(multi-layer perceptron) 각각 AND, NAND, OR 게이트를 NAND(x1,.. 2020. 7. 2. 이전 1 다음