활성화 함수란? (ReLU, Sigmoid, Tanh 등)1. 활성화 함수의 개념활성화 함수(Activation Function)는 인공신경망에서 뉴런의 출력값을 결정하는 중요한 요소입니다. 신경망에서 입력을 받은 뉴런은 가중치와 편향을 적용한 후, 활성화 함수를 거쳐 최종 출력을 내보냅니다. 이 함수는 비선형성을 추가하여 신경망이 복잡한 패턴을 학습할 수 있도록 돕습니다.활성화 함수가 없다면 신경망의 각 층은 단순한 선형 변환만 수행하게 되고, 깊이가 아무리 깊어도 하나의 선형 모델과 동일한 표현력을 가지게 됩니다. 따라서 활성화 함수는 신경망이 비선형 문제를 해결할 수 있도록 하는 핵심적인 역할을 합니다.2. 대표적인 활성화 함수2.1. 시그모이드(Sigmoid) 함수시그모이드 함수는 입력값을 0과 ..