Notice
Recent Posts
Recent Comments
Link
반응형
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
Tags
- Q-Learning
- 강화 학습
- python
- 자연어 처리
- 인공지능
- 회귀
- 머신러닝
- 최적화
- AI
- 차원 축소
- rnn
- GRU
- 정규화
- 지도 학습
- 교차 검증
- 활성화 함수
- 데이터 전처리
- LSTM
- Deep learning
- Machine Learning
- 과적합
- 딥러닝
- 강화학습
- reinforcement learning
- 머신 러닝
- 손실 함수
- 신경망
- q-러닝
- 인공 신경망
- CNN
Archives
- Today
- Total
목록Vanishing Gradient (1)
move84
머신러닝 활성화 함수 종류와 특징
활성화 함수(Activation Function)는 인공 신경망(Artificial Neural Network)에서 뉴런의 출력값을 결정하는 중요한 요소다. 입력 신호의 가중치 합을 받아 최종 출력값을 생성하며, 비선형성을 추가하여 신경망이 복잡한 패턴을 학습할 수 있게 한다. 다양한 활성화 함수가 존재하며, 각각의 특징과 장단점을 이해하는 것이 중요하다.💡 시그모이드 함수 (Sigmoid Function)시그모이드 함수는 입력값을 0과 1 사이의 값으로 변환한다. 수식은 다음과 같다.f(x) = 1 / (1 + e^(-x))이는 로지스틱 회귀(Logistic Regression)에서 주로 사용되며, 확률 값으로 해석하기 용이하다.import numpy as npimport matplotlib.pypl..
머신러닝
2025. 4. 10. 07:39