ReLU1 신경망1 신경망은 입력층, 출력층, 은닉층으로 이루어져 있다. 은닉 층의 뉴런은 입력층, 출력층과 달리 보이지 않는다. 기존 퍼셉트론에서 b는 편향을 나타내는 매개변수로 뉴런이 얼마나 쉽게 활성화되느냐를 제어한다. 이를 기존 네트워크에 추가하면 아래와 같은 그림이 된다. 또한, 조건 분기의 동작들을 함수로 표현해서 간략화 하면 아래와 같은 수식으로 표현할 수 있다. 활성화 함수 가중치를 조합한 결과는 a라는 노드가 되고, 활성화 함수 h()를 통해 y라는 노드로 변환되는 과정을 명시적으로 표현했다. 여기서 h()는 입력 신호의 총합을 출력 신호로 변환해주는 함수로 이를 활성화 함수라고 하며 입력신호의 총합이 활성화를 일으키는지 정하는 역할을 한다. 위의 활성화 함수는 임계값을 경계로 출력이 바뀌는데 이를 계단 함.. 2020. 7. 3. 이전 1 다음