Исследование и статистический анализ атак на нейронные сети в задачах компьютерного зрения
Авторы: Капитонова Л.И., Ушакова A.A., Шална Н.А., Сторожева A.A. | |
Опубликовано в выпуске: #2(31)/2019 | |
DOI: 10.18698/2541-8009-2019-2-443 | |
Раздел: Информатика, вычислительная техника и управление | Рубрика: Методы и системы защиты информации, информационная безопасность |
|
Ключевые слова: нейронная сеть, датасет, враждебная атака, защита от атак, уязвимости нейронных сетей, градиентный метод, пиксельные атаки, администратор безопасности |
|
Опубликовано: 15.02.2019 |
Рассмотрены различные виды атак на нейронные сети в задачах компьютерного зрения, проведены их сравнение и классификация. Представлен анализ таких видов атак из класса «враждебных изображений», как атаки, основанные на градиентном методе, и пиксельные атаки. Проанализирована статистика использования наборов данных для обучения нейросети, имеющихся в открытом доступе. На ее основе получена зависимость вероятности успешного проведения атаки для наборов данных, имеющихся в открытом доступе. Выявлены и проанализированы наиболее эффективные методы защиты от различных видов атак на нейронные сети.
Литература
[1] Комашинский В.И., Смирнов Д.А. Нейронные сети и их применение в системах управления и связи. М., Горячая линия-Телеком, 2002.
[2] Круглов В.В., Борисов В.В. Искусственные нейронные сети. Теория и практика. М., Горячая линия-Телеком, 2001.
[3] Рутковская Д., Пилиньский М., Рутковский Л. Нейронный сети, генетические алгоритмы и нечеткие системы. М., Горячая линия-Телеком, 2006.
[4] Галушкина А.И. Теория нейронных сетей. Москва, ИПРЖР, 2000.
[5] Gomes J. Adversarial attacks and defences for convolutional neural networks. medium.com: веб-сайт. URL: https://medium.com/onfido-tech/adversarial-attacks-and-defences-for-convolutional-neural-networks-66915ece52e7 (дата обращения: 03.06.2018).
[6] Nguyen A., Yosinski J., Clune J. Deep neural networks are easily fooled: high confidence predictions for unrecognizable images. Proc. IEEE Conf. CVPR, 2015. DOI: 10.1109/CVPR.2015.7298640 URL: https://ieeexplore.ieee.org/document/7298640
[7] Chan-Hon-Tong A. On the simplicity to produce falsified deep learning results. hal.archives-ouvertes.fr: веб-сайт. URL: https://hal.archives-ouvertes.fr/hal-01676691v1 (дата обращения: 29.06.2018).
[8] Su J., Vargas D.V., Sakurai K. One pixel attack for fooling deep neural networks. arxiv.org: веб-сайт. URL: https://arxiv.org/pdf/1710.08864.pdf (дата обращения: 07.07.2018).
[9] Moosavi-Dezfooli S.M., Fawzi O., Fawzi A., et al. Universal adversarial perturbations. arxiv.org: веб-сайт. URL: https://arxiv.org/pdf/1610.08401.pdf (дата обращения: 28.07.2018).
[10] Huang S., Papernot N., Goodfellow I., et al. Adversarial attacks on neural network policies. arxiv.org: веб-сайт. URL: https://arxiv.org/abs/1702.02284 (дата обращения: 28.07.2018).
[11] Papernot N., McDaniel P., Goodfellow I., et al. Practical black-box attacks against machine learning. arxiv.org: веб-сайт. URL: https://arxiv.org/abs/1602.02697 (дата обращения: 28.07.2018).
[12] Papernot N., McDaniel P. Extending defensive distillation. arxiv.org: веб-сайт. URL: https://arxiv.org/abs/1705.05264 (дата обращения: 28.07.2018).