논문1 [논문 리뷰/해석] Adversarial Patch (NIPS '17) 논문 링크: https://arxiv.org/pdf/1712.09665.pdf 1. Introduction 딥러닝 시스템들은 adversarial examples(이하 AEs)에 취약하다. AEs란 입력값에 사람이 인지하지 못할 정도의 조작을 가해 뉴럴네트워크의 예측이 빗나가게 하는 샘플들을 말한다. 이런 AEs들은 픽셀단위로 수정을 가해 얻어낼 수 있다. L-BFGS, Fast Gradient Sign Method(FGSM), DeepFool, Projected Gradient Descent(PGD), 그리고 최근에 제안된 Logit-space Projected Gradient Ascent(LS-PGA)등의 최적화 알고리즘을 통해 AEs들을 만들 수 있다. Jacobian-based saliency m.. 논문 2021. 12. 19. 이전 1 다음