Notice
Recent Posts
Recent Comments
Link
반응형
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
Tags
- 머신 러닝
- AI
- 강화학습
- Q-Learning
- 딥러닝
- Machine Learning
- LSTM
- 지도 학습
- 교차 검증
- 활성화 함수
- q-러닝
- 차원 축소
- GRU
- python
- 손실 함수
- 머신러닝
- 신경망
- 정규화
- 데이터 전처리
- CNN
- 최적화
- 자연어 처리
- 회귀
- rnn
- reinforcement learning
- 강화 학습
- Deep learning
- 인공지능
- 인공 신경망
- 과적합
Archives
- Today
- Total
목록Gradient (1)
move84
경사하강법(Gradient Descent)의 직관적 이해
경사하강법(Gradient Descent)은 머신러닝 모델을 훈련시키는 데 사용되는 핵심 알고리즘 중 하나이다. 이 방법은 모델의 예측과 실제 데이터 간의 오차를 최소화하는 파라미터(매개변수)를 찾는 데 사용된다. 경사하강법은 특히 복잡한 모델에서 최적의 해를 찾기 위한 반복적인 최적화 기술로 널리 사용된다.💡 경사하강법이란? (What is Gradient Descent?)경사하강법은 함수의 최솟값을 찾기 위해 함수의 기울기(gradient, 경사)를 이용하여 반복적으로 파라미터를 업데이트하는 최적화 알고리즘이다. 머신러닝에서는 손실 함수(loss function)의 값을 최소화하는 모델 파라미터를 찾는 데 주로 사용된다. 손실 함수는 모델의 예측값과 실제값 사이의 차이를 나타내며, 이 손실 함수의 ..
머신러닝
2025. 4. 10. 07:33