일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
- 교차 검증
- rnn
- reinforcement learning
- 머신러닝
- 딥러닝
- 손실 함수
- AI
- 최적화
- 강화 학습
- python
- LSTM
- 자연어 처리
- q-러닝
- 회귀
- CNN
- GRU
- 강화학습
- 데이터 전처리
- 정규화
- 머신 러닝
- 신경망
- 활성화 함수
- 차원 축소
- Machine Learning
- Q-Learning
- Deep learning
- 인공지능
- 인공 신경망
- 과적합
- 지도 학습
- Today
- Total
목록xavier 초기화 (2)
move84
기울기 소실(Vanishing Gradient) 문제는 심층 신경망 학습 시 발생하는 대표적인 어려움 중 하나이다. 이 문제는 신경망의 깊이가 깊어질수록, 초기 레이어에서 학습이 제대로 이루어지지 않아 전체 모델의 성능 저하를 야기한다. 본 포스트에서는 기울기 소실 문제의 원인과 해결 방안에 대해 자세히 알아본다.🤔 기울기 소실 문제란?기울기 소실 문제는 신경망의 역전파 과정에서 발생한다. 역전파는 손실 함수의 기울기를 계산하여 각 레이어의 가중치를 업데이트하는 과정인데, 기울기가 뒤쪽 레이어에서 앞쪽 레이어로 전달될 때 점차 작아지는 현상을 말한다. 특히 활성화 함수로 시그모이드(Sigmoid)나 하이퍼볼릭 탄젠트(Tanh) 함수를 사용하는 경우, 입력값이 특정 범위에서 벗어나면 기울기가 0에 가까워..
머신러닝 모델의 성능은 학습 데이터와 모델 구조뿐만 아니라 파라미터 초기화 방법에 크게 영향을 받는다. 적절한 초기화는 학습 속도를 높이고, 최적의 해에 더 빠르게 도달하도록 돕는다. 이 글에서는 다양한 파라미터 초기화 전략을 살펴보고, 각 방법의 장단점과 실제 적용 예시를 제공한다.🤔 초기화의 중요성모델 학습 초기에 파라미터 값을 어떻게 설정하느냐는 학습 과정 전체에 걸쳐 중요한 영향을 미친다. 초기 파라미터 값이 좋지 않으면 학습이 제대로 이루어지지 않거나, 학습 시간이 매우 길어질 수 있다. 예를 들어, 모든 파라미터를 0으로 초기화하면 뉴럴 네트워크의 모든 뉴런이 같은 값을 출력하게 되어 학습이 진행되지 않는 문제가 발생할 수 있다.🎲 무작위 초기화 (Random Initialization)가..