Безопасность и обзор угроз машинного обучения
Авторы: Лосев Н.С., Глинская Е.В. | |
Опубликовано в выпуске: #1(96)/2025 | |
DOI: | |
Раздел: Информатика, вычислительная техника и управление | Рубрика: Методы и системы защиты информации, информационная безопасность |
|
Ключевые слова: машинное обучение, стратегии противодействия, атаки злоумышленников, защита данных, методы защиты, модели атак, уязвимости, критические инфраструктуры |
|
Опубликовано: 14.02.2025 |
Машинное обучение получило широкое распространение в преобразовании различных аспектов нашей жизни с помощью интеллектуальных цифровых решений. Использование машинного обучения в критических инфраструктурах влечет за собой желание злоумышленников получить к нему доступ, заполучив алгоритмы, методы и данные, лежащие в основе работы моделей, чтобы расширить свое влияние и извлечь выгоду из уязвимостей системы. В статье рассмотрены и проанализированы основные уязвимости и классификация различных атак машинного обучения как объекта защиты. Также представлены эффективные методы, препятствующие будущим атакам, и технологии, смягчающие возможные опасные последствия.
Литература
[1] Коротеев М.В. Основы машинного обучения на Python. Москва, КноРус, 2024, 432 с.
[2] Ulyanikhin E. Machine learning in information security field. Язык в сфере профессиональной коммуникации. Междунар. науч.-практ. конф. преподавателей, аспирантов и студентов: сб. тр. Екатеринбург, Издательский Дом «Ажур», 2020, pp. 704–707.
[3] Грибунин В.Г., Гришаненко Р.Л., Лабазников А.П., Тимонов А.А. Безопасность систем машинного обучения. Защищаемые активы, уязвимости, модель нарушителя и угроз, таксономия атак. Известия Института инженерной физики, 2021, № 3 (61), с. 65–71.
[4] Lahe A.D., Singh G. A Survey on Security Threats to Machine Learning Systems at Different Stages of its Pipeline. International Journal of Information Technology and Computer Science, 2023, vol. 15, no. 2, pp. 23–34. https://doi.org/10.5815/ijitcs.2023.02.03
[5] Gupta P., Yadav K., Gupta B.B. et al. A Novel Data Poisoning Attack in Federated Learning based on Inverted Loss Function. Computers & Security, 2023, vol. 130, art. 103270. https://doi.org/10.1016/j.cose.2023.103270
[6] Paracha A., Arshad Ju., Farah M.B., Ismail Kh. Machine learning security and privacy: a review of threats and countermeasures. EURASIP Journal on Information Security, 2024, vol. 2024, no. 1, art. 10. https://doi.org/10.1186/s13635-024-00158-3
[7] Bai Ya., Wang Y., Zeng Yu. et al. Query efficient black-box adversarial attack on deep neural networks. Pattern Recognition, 2023, vol. 133, art. 109037. https://doi.org/10.1016/j.patcog.2022.109037
[8] Wu Di., Qi S., Qi Y. et al. Understanding and defending against White-box membership inference attack in deep learning. Knowledge-Based Systems, 2023, vol. 259, art. 110014. https://doi.org/10.1016/j.knosys.2022.110014
[9] Попков Ю.С. Машинное обучение и рандомизированное машинное обучение: сходство и различие. Системный анализ и информационные технологии САИТ-2019. Восьмая Междунар. конф.: сб. тр. Иркутск, ФИЦ ИУ РАН, 2019, с. 10–25. https://doi.org/10.14357/SAIT2019001
[10] Астапов Р.Л., Мухамадеева Р.М. Автоматизация подбора параметров машинного обучения и обучение модели машинного обучения. Актуальные научные исследования в современном мире, 2021, № 5–2 (73), с. 34–37.