일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
- 인공 신경망
- 과적합
- 강화학습
- 딥러닝
- 강화 학습
- LSTM
- 정규화
- 지도 학습
- 최적화
- 인공지능
- python
- AI
- 손실 함수
- q-러닝
- 데이터 전처리
- 활성화 함수
- 머신러닝
- Deep learning
- Machine Learning
- 자연어 처리
- 회귀
- 신경망
- GRU
- 머신 러닝
- Q-Learning
- 교차 검증
- CNN
- reinforcement learning
- 차원 축소
- rnn
- Today
- Total
목록방어적 증류 (2)
move84
🤖 딥러닝 모델은 놀라운 성능을 보여주지만, 적대적 공격 (Adversarial Attack)에 취약하다는 사실이 밝혀졌다. 적대적 공격은 모델이 의도적으로 잘못된 예측을 하도록 설계된 입력 데이터를 사용하는 공격 기법이다. 이 글에서는 딥러닝 모델을 이러한 공격으로부터 보호하기 위한 방어 기법에 대해 알아본다.🧠 적대적 공격 (Adversarial Attack)의 이해적대적 공격은 이미지, 텍스트, 음성 등 다양한 형태의 입력 데이터에 적용될 수 있다. 공격자는 모델의 예측을 조작하기 위해 원본 입력에 미세한 노이즈 (noise)를 추가한다. 이러한 노이즈는 사람의 눈으로는 감지하기 어렵지만, 모델의 예측을 완전히 바꿀 수 있다.예를 들어, 고양이 사진을 인식하는 모델에 적대적 노이즈를 추가하면, ..
🤖 머신러닝 모델은 현대 사회의 다양한 분야에서 핵심적인 역할을 수행하고 있다. 이미지 인식, 자연어 처리, 음성 인식 등, 우리의 일상생활과 밀접하게 관련된 많은 서비스들이 머신러닝 기술에 의존하고 있다. 그러나 이러한 모델들은 종종 "적대적 공격 (Adversarial Attack)"에 취약하다는 사실이 밝혀지면서, 모델의 강건성 (Robustness) 확보가 중요한 과제로 떠올랐다.🤔 적대적 공격이란 무엇일까? 적대적 공격은 머신러닝 모델을 속여서 잘못된 예측을 하도록 유도하는 기술을 의미한다. 공격자는 모델의 입력 데이터에 미세한 노이즈를 추가하거나, 의도적으로 왜곡된 데이터를 제공하여 모델의 예측 결과를 변경하려고 시도한다. 이러한 공격은 모델의 성능을 저하시키고, 심각한 경우, 실제 시스템..