일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
- 최적화
- 머신러닝
- 데이터 전처리
- rnn
- 강화 학습
- AI
- Q-Learning
- 인공지능
- 정규화
- 손실 함수
- 머신 러닝
- 활성화 함수
- 자연어 처리
- 차원 축소
- 강화학습
- 과적합
- reinforcement learning
- Deep learning
- GRU
- 지도 학습
- 회귀
- python
- 딥러닝
- 인공 신경망
- 교차 검증
- CNN
- 신경망
- q-러닝
- Machine Learning
- LSTM
- Today
- Total
목록배치 정규화 (3)
move84
기울기 소실(Vanishing Gradient) 문제는 심층 신경망 학습 시 발생하는 대표적인 어려움 중 하나이다. 이 문제는 신경망의 깊이가 깊어질수록, 초기 레이어에서 학습이 제대로 이루어지지 않아 전체 모델의 성능 저하를 야기한다. 본 포스트에서는 기울기 소실 문제의 원인과 해결 방안에 대해 자세히 알아본다.🤔 기울기 소실 문제란?기울기 소실 문제는 신경망의 역전파 과정에서 발생한다. 역전파는 손실 함수의 기울기를 계산하여 각 레이어의 가중치를 업데이트하는 과정인데, 기울기가 뒤쪽 레이어에서 앞쪽 레이어로 전달될 때 점차 작아지는 현상을 말한다. 특히 활성화 함수로 시그모이드(Sigmoid)나 하이퍼볼릭 탄젠트(Tanh) 함수를 사용하는 경우, 입력값이 특정 범위에서 벗어나면 기울기가 0에 가까워..
배치 정규화(Batch Normalization)는 신경망 학습 시 각 레이어의 입력 분포를 평균 0, 분산 1로 정규화하여 학습 속도를 높이고, 모델의 안정성을 향상시키는 기술입니다. 내부 공변량 변화(Internal Covariate Shift) 문제를 완화하여 더 나은 성능을 제공합니다. 본 포스트에서는 배치 정규화의 개념, 작동 원리, 효과 및 구현 방법에 대해 상세히 알아봅니다.💡 배치 정규화란? (What is Batch Normalization?)배치 정규화는 신경망의 각 레이어에서 활성화 함수를 통과하기 전이나 후에 데이터의 분포를 정규화하는 방법입니다. 각 미니배치(mini-batch) 단위로 평균과 분산을 계산하여 데이터를 정규화하며, 학습 과정에서 레이어의 입력 분포가 일정하게 유지..
딥러닝 모델을 학습시키는 것은 복잡한 과정이며, 종종 학습 속도를 높이고 성능을 향상시키기 위한 다양한 기술이 필요하다. 배치 정규화(Batch Normalization)는 그러한 기술 중 하나로, 딥 네트워크의 학습을 안정시키고 가속화하는 데 매우 효과적인 방법이다.✨ 배치 정규화의 개념 (The Concept of Batch Normalization)배치 정규화는 딥러닝 모델의 각 레이어에서 활성화 함수(activation function)의 입력을 정규화하는 기술이다. 정규화는 입력 데이터를 평균 0, 분산 1로 변환하는 과정을 의미한다. 이렇게 하면 각 레이어의 입력 분포가 안정화되어 학습 과정이 빨라지고, 모델의 일반화 성능이 향상될 수 있다.🤔 내부 공변량 변화 (Internal Covari..