일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
- 지도 학습
- 자연어 처리
- CNN
- Machine Learning
- 신경망
- Deep learning
- 머신러닝
- 데이터 전처리
- 최적화
- 인공 신경망
- 교차 검증
- q-러닝
- LSTM
- 활성화 함수
- 차원 축소
- 머신 러닝
- 딥러닝
- 회귀
- Q-Learning
- rnn
- python
- 인공지능
- 정규화
- AI
- 강화학습
- GRU
- 강화 학습
- reinforcement learning
- 과적합
- 손실 함수
- Today
- Total
목록학습 (3)
move84
배치 정규화(Batch Normalization)는 신경망 학습 시 각 레이어의 입력 분포를 평균 0, 분산 1로 정규화하여 학습 속도를 높이고, 모델의 안정성을 향상시키는 기술입니다. 내부 공변량 변화(Internal Covariate Shift) 문제를 완화하여 더 나은 성능을 제공합니다. 본 포스트에서는 배치 정규화의 개념, 작동 원리, 효과 및 구현 방법에 대해 상세히 알아봅니다.💡 배치 정규화란? (What is Batch Normalization?)배치 정규화는 신경망의 각 레이어에서 활성화 함수를 통과하기 전이나 후에 데이터의 분포를 정규화하는 방법입니다. 각 미니배치(mini-batch) 단위로 평균과 분산을 계산하여 데이터를 정규화하며, 학습 과정에서 레이어의 입력 분포가 일정하게 유지..
강화 학습(Reinforcement Learning, RL)은 인공 지능의 한 분야로, 에이전트가 환경과 상호 작용하며 보상을 최대화하도록 학습하는 방법을 연구합니다. 모델 기반 강화 학습(Model-Based RL)은 환경의 모델을 학습하여 에이전트가 미래를 예측하고 계획을 세울 수 있게 하는 접근 방식입니다. 이는 모델이 없는(Model-Free) 강화 학습 방식에 비해 데이터 효율성이 높고, 복잡한 환경에서의 학습에 유리합니다. 본 블로그 글에서는 모델 기반 강화 학습의 기본적인 개념과 계획 및 학습 과정에 대해 자세히 살펴보겠습니다.🤖 모델 기반 강화 학습 (Model-Based Reinforcement Learning) 개요모델 기반 강화 학습은 에이전트가 환경의 내부 모델을 학습하는 것을 핵..
머신러닝 모델 학습의 핵심, 미니 배치 경사 하강법(Mini-Batch Gradient Descent)을 파헤쳐 보겠습니다. 🚀 시작하며머신러닝(Machine Learning) 모델을 학습시키는 과정은 마치 험난한 산을 오르는 등반과 같습니다. 목표 지점, 즉 모델이 원하는 결과를 정확하게 예측하도록 만드는 지점까지, 끊임없이 경사를 따라 올라가야 합니다. 이때, 경사 하강법(Gradient Descent)은 등반가에게 나침반과 같은 역할을 합니다. 전체 데이터를 사용하여 가중치를 업데이트하는 표준 경사 하강법(Gradient Descent)은 계산 비용이 많이 들 수 있습니다. 이러한 단점을 보완하기 위해 등장한 것이 바로 미니 배치 경사 하강법입니다. 미니 배치 경사 하강법은 전체 데이터셋을 작은 ..