AI & Vision1 ReLU 활성 함수란 무엇인가? 신경망(Neural Network)은 인공지능 모델에서 데이터를 학습하고 패턴을 이해하기 위한 중요한 도구입니다. 그 중에서도 "활성 함수(Activation Function)"는 뉴런의 출력을 결정하고 학습의 핵심적인 역할을 합니다. 이번 글에서는 활성 함수의 개념부터, ReLU(Rectified Linear Unit)가 어떤 역할을 하고, 왜 음수를 0으로 만드는지까지 자세히 살펴보겠습니다.활성 함수란?활성 함수는 신경망에서 뉴런의 출력값을 결정하는 함수입니다. 입력값을 선형 결합한 결과를 비선형적으로 변환하여 다음 계층으로 전달하는 역할을 합니다. 활성 함수가 없다면, 여러 층(layer)을 쌓아도 단순한 선형 계산만 반복될 뿐, 복잡한 문제를 해결할 수 없습니다.활성 함수의 역할비선형성 도입: 데.. 2025. 1. 21. 이전 1 다음