일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
- 회귀
- reinforcement learning
- 인공지능
- Q-Learning
- python
- 딥러닝
- LSTM
- 손실 함수
- GRU
- 차원 축소
- 과적합
- 활성화 함수
- 정규화
- 자연어 처리
- 머신 러닝
- rnn
- 강화학습
- 신경망
- 데이터 전처리
- Machine Learning
- 인공 신경망
- 강화 학습
- 지도 학습
- 머신러닝
- 교차 검증
- AI
- CNN
- Deep learning
- 최적화
- q-러닝
- Today
- Total
목록PGD (2)
move84
신경망은 이미지 인식, 자연어 처리 등 다양한 분야에서 뛰어난 성능을 보여주지만, 적대적 공격 (Adversarial Attacks)에 취약하다는 사실이 밝혀졌다. 적대적 공격은 신경망이 오분류하도록 설계된 입력 데이터를 사용하는 공격 기법이다. 이 글에서는 적대적 공격의 개념, 유형, 방어 방법에 대해 자세히 알아본다.🧠 적대적 공격이란 무엇인가? (What are Adversarial Attacks?)적대적 공격은 신경망 모델의 예측을 속이기 위해 고안된 악의적인 공격 기법이다. 공격자는 모델의 입력 데이터에 미세한 노이즈 (noise)를 추가하여 모델이 잘못된 예측을 하도록 유도한다. 이 노이즈는 사람의 눈으로는 감지하기 어렵지만, 모델의 예측 결과에 큰 영향을 미칠 수 있다. 예를 들어, 고양이..
🤖 머신러닝에서의 적대적 훈련 (Adversarial Training) 소개적대적 훈련(Adversarial Training)은 머신러닝 모델의 견고함(Robustness)을 향상시키기 위한 강력한 기술이다. 특히 딥러닝 모델은 적대적 예제(Adversarial Examples)에 취약하다는 것이 밝혀졌는데, 이는 모델이 학습 데이터와 매우 유사하지만, 사람의 눈으로는 구별하기 어려운 작은 변화가 있는 입력에 대해 잘못된 예측을 하는 현상을 말한다. 적대적 훈련은 이러한 적대적 예제에 대한 모델의 취약성을 줄이기 위해 고안되었다.🛡️ 적대적 예제 (Adversarial Examples)란 무엇인가?적대적 예제는 모델을 속이기 위해 특별히 조작된 입력 데이터이다. 예를 들어, 이미지 분류 모델이 있다고..