Notice
Recent Posts
Recent Comments
Link
반응형
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
Tags
- 교차 검증
- 지도 학습
- 인공지능
- rnn
- 강화학습
- LSTM
- 회귀
- 손실 함수
- Deep learning
- 차원 축소
- CNN
- q-러닝
- 신경망
- reinforcement learning
- 데이터 전처리
- Q-Learning
- python
- 자연어 처리
- GRU
- 머신 러닝
- 최적화
- 딥러닝
- 정규화
- 강화 학습
- 활성화 함수
- AI
- Machine Learning
- 머신러닝
- 인공 신경망
- 과적합
Archives
- Today
- Total
목록Mini-batch Gradient Descent (1)
move84
머신러닝: Mini-Batch Gradient Descent (미니 배치 경사 하강법) 완벽 분석
머신러닝 모델 학습의 핵심, 미니 배치 경사 하강법(Mini-Batch Gradient Descent)을 파헤쳐 보겠습니다. 🚀 시작하며머신러닝(Machine Learning) 모델을 학습시키는 과정은 마치 험난한 산을 오르는 등반과 같습니다. 목표 지점, 즉 모델이 원하는 결과를 정확하게 예측하도록 만드는 지점까지, 끊임없이 경사를 따라 올라가야 합니다. 이때, 경사 하강법(Gradient Descent)은 등반가에게 나침반과 같은 역할을 합니다. 전체 데이터를 사용하여 가중치를 업데이트하는 표준 경사 하강법(Gradient Descent)은 계산 비용이 많이 들 수 있습니다. 이러한 단점을 보완하기 위해 등장한 것이 바로 미니 배치 경사 하강법입니다. 미니 배치 경사 하강법은 전체 데이터셋을 작은 ..
머신러닝
2025. 3. 4. 23:29