Нейронні мережі у виявленні атак на розподілені системи

Автор(и)

  • Артем Волокита Національний технічний університет України «Київський політехнічний інститут імені Ігоря Сікорського», Україна https://orcid.org/0000-0001-9069-5544
  • Микита Меленчуков Національний технічний університет України «Київський політехнічний інститут імені Ігоря Сікорського», Україна https://orcid.org/0009-0005-6615-4306

DOI:

https://doi.org/10.25140/2411-5363-2024-1(35)-135-145

Ключові слова:

системи виявлення атак; нейронні мережі; розподілені системи; детекція аномалій; машинне навчання

Анотація

Сучасні виклики до обробки великих обсягів інформації вирішуються за допомогою складних розподілених систем, які своєю чергою потребують кіберзахисту, що дозволяє керувати ризиками безпеки, такими як заволодіння інформацією, шпигунства, зниження продуктивності систем та ін. У цій статті зроблено огляд деяких засобів виявлення кібератак, які зокрема застосовують машинне навчання, наведені їхні переваги, недоліки, методи роботи, вразливості та підходи до їх захисту.

Аналіз атак проти засобів захисту на основі машинного навчання, які використовують підхід детекції аномалій, показав що існують слабкі місця, що потребують додаткового захисту, наприклад, розподілені в часі атаки можуть адаптуватись до допустимих діапазонів відхилення показників мережі. Виконано огляд механізмів забезпечення стійкості систем захисту до таких впливів, а саме додавання різноманітних шумів під час навчання, зменшення інтервалів значень параметрів системи, варіації донавчання моделі на оманливих даних, використання спеціальних класифікаторів.

 

Біографії авторів

Артем Волокита, Національний технічний університет України «Київський політехнічний інститут імені Ігоря Сікорського»

кандидат технічних наук, доцент кафедри обчислювальної техніки,

Микита Меленчуков, Національний технічний університет України «Київський політехнічний інститут імені Ігоря Сікорського»

аспірант кафедри обчислювальної техніки,

Посилання

Liao, H.J., Lin, C.H.R., Lin, Y.C., & Tung, K.Y. (2013). Intrusion detection system: A comprehensive review. Journal of Network and Computer Applications, 36(1), 16-24.

Hu, N., Tian, Z., Lu, H., Du, X., & Guizani, M. (2021). A multiple-kernel clustering based intrusion detection scheme for 5G and IoT networks. International Journal of Machine Learning and Cybernetics, 1-16.

Min, E., Long, J., Liu, Q., Cui, J., & Chen, W. (2018). TR-IDS: Anomaly-based intrusion detection through text-convolutional neural network and random forest. Security and Communication Networks.

Tran, N.N., Sarker, R., & Hu, J. (2018). An approach for host-based intrusion detection system design using convolutional neural network. In Mobile Networks and Management: 9th International Conference, MONAMI 2017, Melbourne, Australia, December 13-15, 2017, Proceedings 9 (pp. 116-126). Springer International Publishing.

Kim, A., Park, M., & Lee, D. H. (2020). AI-IDS: Application of deep learning to real-time Web intrusion detection. IEEE Access, 8, 70245-70261.

Yassin, W., Udzir, N.I., Muda, Z., & Sulaiman, M.N. (2013). Anomaly-based intrusion detection through k-means clustering and naives bayes classification.

Khan, M.A. (2021). HCRNNIDS: Hybrid convolutional recurrent neural network-based network intrusion detection system. Processes, 9(5), 834.

Mayhew, M., Atighetchi, M., Adler, A., & Greenstadt, R. (2015, October). Use of machine learning in big data analytics for insider threat detection. In MILCOM 2015-2015 IEEE Military Communications Conference (pp. 915-922). IEEE.

IBM. (2013). Security Intrusion detection. IBM i Version 7.2. https://www.ibm.com/docs/en/ ssw_ibm_i_72/rzaub/rzaubpdf.pdf.

Microsoft & Baldwin, M. (2022). Security Control: Network Security. learn.microsoft.com. https://learn.microsoft.com/en-us/security/benchmark/azure/security-control-network-security.

Amazon. (2024). Amazon GuardDuty features. aws.amazon.com. https://aws.amazon.com/ guardduty/features/.

Digitalocean & Camisso, J. (2021). Understanding Suricata Signature. www.digitalocean.com. https://www.digitalocean.com/community/tutorials/understanding-suricata-signatures.

Oracle. (2024). Oracle Intrusion Detection System. docs.oracle.com. https://docs.oracle.com/ cd/E95618_01/html/sbc_scz810_security/GUID-73A32803-097C-496F-9709-7B51CF54382B.htm#Intrusion-Detection-System.

Hindy, H., Atkinson, R., Tachtatzis, C., Colin, J. N., Bayne, E., & Bellekens, X. (2020). Utilising deep learning techniques for effective zero-day attack detection. Electronics, 9(10), 1684.

Ortega-Fernandez, I., Sestelo, M., Burguillo, J. C., & Pinon-Blanco, C. (2023). Network intrusion detection system for DDoS attacks in ICS using deep autoencoders. Wireless Networks, 1-17.

Othman, S.M., Ba-Alwi, F.M., Alsohybe, N.T., & Al-Hashida, A.Y. (2018). Intrusion detection model using machine learning algorithm on Big Data environment. Journal of big data, 5(1), 1-12.

Kim, J., Kim, J., Kim, H., Shim, M., & Choi, E. (2020). CNN-based network intrusion detection against denial-of-service attacks. Electronics, 9(6), 916.

Ayub, M.A., Johnson, W.A., Talbert, D.A., & Siraj, A. (2020, March). Model evasion attack on intrusion detection systems using adversarial machine learning. In 2020 54th annual conference on information sciences and systems (CISS) (pp. 1-6). IEEE.

Biggio, B., Corona, I., Maiorca, D., Nelson, B., Šrndić, N., Laskov, P., ... & Roli, F. (2013). Evasion attacks against machine learning at test time. In Machine Learning and Knowledge Discovery in Databases : European Conference, ECML PKDD 2013, Prague, Czech Republic, September 23-27, 2013, Proceedings, Part III 13 (pp. 387-402). Springer Berlin Heidelberg.

Russu, P., Demontis, A., Biggio, B., Fumera, G., & Roli, F. (2016, October). Secure kernel machines against evasion attacks. In Proceedings of the 2016 ACM workshop on artificial intelligence and security (pp. 59-69).

Papernot, N., McDaniel, P., Wu, X., Jha, S., & Swami, A. (2016, May). Distillation as a defense to adversarial perturbations against deep neural networks. In 2016 IEEE symposium on security and privacy (SP) (pp. 582-597). IEEE.

Goodfellow, I. J., Shlens, J., & Szegedy, C. (2014). Explaining and harnessing adversarial examples. arXiv preprint arXiv:1412.6572.

Pei, S., Sun, J., Zhang, X., & Meng, G. (2022). Gradient Concealment: Free Lunch for Defending Adversarial Attacks. arXiv preprint arXiv:2205.10617.

Meng, D., & Chen, H. (2017, October). Magnet: a two-pronged defense against adversarial examples. In Proceedings of the 2017 ACM SIGSAC conference on computer and communications security (pp. 135-147).

Moosavi-Dezfooli, S.M., Fawzi, A., & Frossard, P. (2016). Deepfool: a simple and accurate method to fool deep neural networks. In Proceedings of the IEEE conference on computer vision and pattern recognition (pp. 2574-2582).

Lindqvist, B., & Izmailov, R. (2020). Minimax defense against gradient-based adversarial attacks. arXiv preprint arXiv:2002.01256.

Harder, P., Pfreundt, F. J., Keuper, M., & Keuper, J. (2021, July). Spectraldefense: Detecting adversarial attacks on cnns in the fourier domain. In 2021 International Joint Conference on Neural Networks (IJCNN) (pp. 1-8). IEEE.

Kwon, H., & Lee, J. (2020). AdvGuard: fortifying deep neural networks against optimized adversarial example attack. IEEE Access.

Carlini, N., & Wagner, D. (2017, May). Towards evaluating the robustness of neural networks. In 2017 ieee symposium on security and privacy (sp) (pp. 39-57). Ieee.

Xu, W., Evans, D., & Qi, Y. (2017). Feature squeezing mitigates and detects carlini/wagner adversarial examples. arXiv preprint arXiv:1705.10686.

Samangouei, P., Kabkab, M., & Chellappa, R. (2018). Defense-gan: Protecting classifiers against adversarial attacks using generative models. arXiv preprint arXiv:1805.06605.

Papernot, N., & McDaniel, P. (2018). Deep k-nearest neighbors: Towards confident, interpretable and robust deep learning. arXiv preprint arXiv:1803.04765.

Alkhowaiter, M., Kholidy, H., Alyami, M. A., Alghamdi, A., & Zou, C. (2023). Adversarial-Aware Deep Learning System Based on a Secondary Classical Machine Learning Verification Approach. Sensors, 23(14), 6287.

##submission.downloads##

Опубліковано

2024-04-26

Як цитувати

Волокита, А., & Меленчуков, М. . (2024). Нейронні мережі у виявленні атак на розподілені системи. Технічні науки та технології, (1 (35), 135–145. https://doi.org/10.25140/2411-5363-2024-1(35)-135-145

Номер

Розділ

ІНФОРМАЦІЙНО-КОМП’ЮТЕРНІ ТЕХНОЛОГІЇ