МЕТОД АУГМЕНТАЦІЇ ДАНИХ ІЗ ВИКОРИСТАННЯМ ГЕНЕРАТИВНИХ ЗМАГАЛЬНИХ МЕРЕЖ
DOI:
https://doi.org/10.25140/2411-5363-2021-2(24)-83-91Ключові слова:
аугментація даних; генеративні змагальні мережі; згорткові нейронні мережіАнотація
Велика кількість різноманітних даних є основою для побудови надійної моделі машинного навчання, адже це допомагає точніше узагальнити інформацію про поставлену задачу. Водночас існують галузі, де збір даних або неможливий, або потребує величезної кількості ресурсів. Наприклад, у медичній галузі дані пацієнтів захищені законами про конфіденційність та приватність інформації, через які їх пошук, зберігання та використання викликає великі проблеми. Сучасні системи машинного навчання вирішують цю проблему методами генерації синтетичних даних. У статті розглянуто розробку методу аугментації даних на базі генеративних змагальних мереж.
Важливим етапом побудови точної моделі машинного навчання є пошук та анотація даних, які будуть використовуватися для навчання та тестування точності роботи нейронної мережі. Від кількості зібраних даних залежить точність та стабільність роботи мережі в реальних умовах. У статті пропонується метод для підвищення точності класифікації зображень згортковими нейронними мережами на базі аугментації даних із використанням генеративних змагальних мереж.
Нині добре описано та проаналізовано такі методи аугментації зображень, як поворот на деякий випадковий кут, стиснення та розтягнення по вертикалі й горизонталі, зміщення, дзеркальне відображення. Також наявні роботи, що розглядають внесення реалістичної деформації в зображення та генерації нових векторів ознак на базі декількох сусідніх зразків.
Нерозглянутими на даний момент залишаються можливості використання генеративних змагальних мереж у задачі аугментації даних.
Описано метод аугментації зображень із використанням генеративних змагальних мереж для підвищення точності роботи згорткових нейронних мереж, проведено порівняльний аналіз запропонованого методу з класичними методами аугментації зображень. Виділено основні переваги та недоліки запропонованого методу аугментації даних, висунуто плани щодо подальших досліджень.
Посилання
Rokach, L. Ensemble-based Classifiers. Artificial Intelligence Review. 2010. Vol. 33. Pp. 1–39.
Ciresan, D. C., Meier, U., Gambardella, L. M., Schmidhuber, J. (2010). Deep Big Simple Neural Nets Excel on Handwritten Digit Recognition. Neural Computation. Vol. 22(12).
Akimov, O. V., Syrota, O. O. (2016). Models and algorithms of artificial dataset augmentation for training algorithms persons recognition using Viola-Jones method. Computer optics. Vol. 40, № 6. Pp. 911-918.
Guo, H., Viktor, H. L. (2014). Learning from Imbalanced Data Sets with Boosting and Data Generation: The DataBoost IM Approach. ACM SIGKDD Explorations Newsletter. Vol. 6(1). Pp. 30–39.
Chawla, N. V., Bowyer, K. W., Hall, L. O., & Kegelmeyer, W. P. (2017). SMOTE: Synthetic Minority Oversampling Technique. J. Artificial Intelligence Research. Vol. 16. Pp. 321–357.
Ian J. Goodfellow, Jean Pouget-Abadie, Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair, Aaron Courville, Yoshua Bengio, Generative Adversarial Networks. arXiv:1406.2661 [cond-mat] (2014) (available at https://arxiv.org/abs/1406.2661).
He, K., Zhang, X., Ren, S., & Sun, J. (2016). Deep residual learning for image recognition. In Proceedings of the IEEE conference on computer vision and pattern recognition (pp. 770-778).
Bottou, L. (2010). Large-scale machine learning with stochastic gradient descent. In Proceedings of COMPSTAT'2010 (pp. 177-186).
Simonyan, K., & Zisserman, A. (2014). Very deep convolutional networks for large-scale image recognition. arXiv preprint arXiv:1409.1556.
Krizhevsky, A., Nair, V., & Hinton, G. (2014). The CIFAR-10 dataset. http://www.cs.toronto.edu/kriz/cifar.html.
Mery, D., Rio, V., Zscherpel, U., Mondragn, G., Lillo, I., Zuccar, I., ... Carrasco, M. (2015). GDXray: The database of X-ray images for nondestructive testing. Journal of Nondestructive Evaluation, 34(4), 42.
##submission.downloads##
Опубліковано
Як цитувати
Номер
Розділ
Ліцензія
Ця робота ліцензується відповідно до Creative Commons Attribution-NonCommercial 4.0 International License.