softmax1 [DL]활성화 함수 (Activation Function) 개념 Deep Learning, Machine Leraning을 공부하다보면 여러 Layer를 구성하고 항상 마지막 출력값에 적용해주는 함수가 있다. 개념을 알지 못하고 단순히 코드필사만 해본 사람이라도 한번쯤은 봤을법 한, 그 함수들.. Sigmoid, ReLU 등등.. 이러한 함수들이 바로 Activation Function 이다. 아래 설명은 https://playground.tensorflow.org/ 을 활용한다. 정의 입력 신호의 총합을 출력신호로 변환하는 함수를 일반적으로 Activation Function이라고 한다. Actication Function의 목적 간단하게 말하면 Deep Learning Network에 비선형성을 적용하기 위함이다. 처음엔 나도 그냥 이게 뭐? 비선형성이 적용되는게.. 2021. 6. 22. 이전 1 다음