일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- 정규화
- Deep learning
- 데이터 전처리
- Q-Learning
- rnn
- q-러닝
- 지도 학습
- python
- AI
- 분류
- CNN
- 머신러닝
- 교차 검증
- GRU
- 강화학습
- Machine Learning
- 활성화 함수
- 강화 학습
- 딥러닝
- 신경망
- 회귀
- LSTM
- 과적합
- 인공 신경망
- 머신 러닝
- 손실 함수
- 최적화
- reinforcement learning
- 자연어 처리
- 인공지능
- Today
- Total
목록learning (2)
move84
배치 정규화(Batch Normalization)는 신경망 학습 시 각 레이어의 입력 분포를 평균 0, 분산 1로 정규화하여 학습 속도를 높이고, 모델의 안정성을 향상시키는 기술입니다. 내부 공변량 변화(Internal Covariate Shift) 문제를 완화하여 더 나은 성능을 제공합니다. 본 포스트에서는 배치 정규화의 개념, 작동 원리, 효과 및 구현 방법에 대해 상세히 알아봅니다.💡 배치 정규화란? (What is Batch Normalization?)배치 정규화는 신경망의 각 레이어에서 활성화 함수를 통과하기 전이나 후에 데이터의 분포를 정규화하는 방법입니다. 각 미니배치(mini-batch) 단위로 평균과 분산을 계산하여 데이터를 정규화하며, 학습 과정에서 레이어의 입력 분포가 일정하게 유지..
강화 학습(Reinforcement Learning, RL)은 인공 지능의 한 분야로, 에이전트가 환경과 상호 작용하며 보상을 최대화하도록 학습하는 방법을 연구합니다. 모델 기반 강화 학습(Model-Based RL)은 환경의 모델을 학습하여 에이전트가 미래를 예측하고 계획을 세울 수 있게 하는 접근 방식입니다. 이는 모델이 없는(Model-Free) 강화 학습 방식에 비해 데이터 효율성이 높고, 복잡한 환경에서의 학습에 유리합니다. 본 블로그 글에서는 모델 기반 강화 학습의 기본적인 개념과 계획 및 학습 과정에 대해 자세히 살펴보겠습니다.🤖 모델 기반 강화 학습 (Model-Based Reinforcement Learning) 개요모델 기반 강화 학습은 에이전트가 환경의 내부 모델을 학습하는 것을 핵..