Notice
Recent Posts
Recent Comments
Link
반응형
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
Tags
- 인공지능
- 신경망
- 데이터 전처리
- python
- Q-Learning
- 딥러닝
- 지도 학습
- 자연어 처리
- 손실 함수
- LSTM
- 활성화 함수
- Machine Learning
- 머신 러닝
- 교차 검증
- 차원 축소
- 인공 신경망
- AI
- GRU
- rnn
- reinforcement learning
- 강화 학습
- 최적화
- 정규화
- 머신러닝
- 과적합
- Deep learning
- CNN
- 강화학습
- 회귀
- q-러닝
Archives
- Today
- Total
목록아키텍처 기반 방법 (architecture-based methods) (1)
move84
딥러닝: 신경망에서의 연속 학습
🧠 딥러닝에서의 연속 학습 (Continual Learning) 소개연속 학습, 즉 Continual Learning (이하 CL)은 인공지능 분야에서 매우 중요한 개념으로 떠오르고 있습니다. 이는 기존의 딥러닝 모델들이 직면한 근본적인 문제점을 해결하기 위한 방법 중 하나입니다. 딥러닝 모델은 일반적으로 특정 데이터셋에 대해 학습된 후, 새로운 데이터를 접하게 되면 기존에 학습했던 내용을 잊어버리는 경향이 있습니다. 이러한 현상을 '재앙적 망각 (Catastrophic Forgetting)'이라고 합니다. CL은 이러한 재앙적 망각을 최소화하면서, 새로운 정보를 지속적으로 학습하고 기존 지식을 유지하는 것을 목표로 합니다.📚 왜 연속 학습이 중요한가?현실 세계에서 인간은 끊임없이 새로운 정보를 배우..
딥러닝
2025. 3. 31. 07:17