Метод розпізнавання акустичних сигналів за даними спектрального аналізу за допомогою нейронних мереж
DOI:
https://doi.org/10.25140/2411-5363-2025-3(41)-146-157Ключові слова:
акустичне розпізнавання; спектральний аналіз; нейронні мережі; низький SNR; частотна селекція; векторні ознакиАнотація
У статті запропоновано метод розпізнавання акустичних сигналів на основі спектрального аналізу та нейронних мереж для детекції цільових об’єктів в умовах негативного співвідношення сигнал/завада. Досліджено специфічну задачу акустичної ідентифікації, коли цільовий сигнал має нижчий рівень потужності порівняно з фоновими завадами від джерела аналогічної природи. На основі попереднього аналізу гармонічної структури досліджуваних сигналів визначено частотний діапазон 700-850 Гц як оптимальний для розрізнення цільового та фонового компонентів. Розроблено кастомний аналізатор для вилучення 21 спектральної ознаки з обраного частотного діапазону з використанням часових вікон тривалістю 1 секунда з перекриттям 0,5 секунди. Запропоновано архітектуру повнозв’язної нейронної мережі з двома прихованими шарами для класифікації векторів ознак. Експериментальна валідація методу продемонструвала досягнення точності детекції 88 % при рівні хибних спрацьовувань 4 %. Метод забезпечує компактне представлення акустичної інформації та обчислювальну ефективність за рахунок фокусування на попередньо визначеному інформативному частотному діапазоні замість обробки повного спектра сигналу.
Посилання
Famili, A., Stavrou, A., Wang, H., Park, J.-M., & Gerdes, R. (2024). Securing Your Airspace: Detection of Drones Trespassing Protected Areas. Sensors, 24(2), 14. https://doi.org/10.3390/s24020579.
Wilshin, S. (2023). Seeing with sound; surface detection and avoidance by sensing self-generated noise. International Journal of Micro Air Vehicles, 15(1), 1-12. https://doi.org/10.1177/ 17568293221148377.
Vashishtha, G., & Kumar, R. (2023). Editorial: Advances in noise reduction and feature extraction of acoustic signal. Frontiers in Physics, 11, 1287956. https://doi.org/10.3389/fphy.2023. 1287956.
Zakaria, N. A. Z., Mohd Rozaimi, F. N. S., Enche Ab Rahim, S. A., & Khan, Z. I. (2024). Signal analysis for drone detection and characterization using acoustic radar. Journal of Physics Conference Series, 2922(1), 012003. https://doi.org/10.1088/1742-6596/2922/1/012003.
Yurdakul, M., & Tasdemir, S. (2023). Acoustic signal analysis with deep neural network for detecting fault diagnosis in industrial machines. International Journal of Applied Engineer-ing Research, 12(12), 3461-3469. https://doi.org/10.48550/arXiv.2312.01062.
Liu, Z., Fan, K., Chen, Y., Xiong, L., Ye, J., Fan, A., & Zhang, H. (2025). Deep learning-based acoustic recognition of UAVs in complex environments. Drones, 9(6), 389. https://doi.org/10.3390/ drones9060389.
Казимир, В., Роговенко, А., & Карась, О. (2024). Використання штучних нейронних мереж для аудіо класифікації на мінікомп’ютерній платформі. Технічні науки та технології, (4(38)), 134-149. https://doi.org/10.25140/2411-5363-2024-4(38)-134-149.
Frid, A., Ben-Shimol, Y., Manor, E., & Greenberg, S. (2024). Drones detection using a fusion of RF and acoustic features and deep neural networks. Sensors, 24 (8), 2427. https://doi.org/10.3390/s24082427.
Same, M. H., Gandubert, G., Gleeton, G., Ivanov, P., & Landry, R. (2020). Simplified welch algorithm for spectrum monitoring. Applied Sciences, 11(1), 86. https://doi.org/10.3390/app11010086.
Madanian, S., Chen, T., Adeleye, O., Templeton, J. M., Poellabauer, C., Parry, D., Schneider, S. L. (2023). Speech emotion recognition using machine learning – A systematic review. Intelligent Systems with Applications, 20, 200266. https://www.sciencedirect.com/science/article/pii/S2667305323000911.
Mukkamala, S. N. V. J., & Radhika, Y. (2020). A review: Music feature extraction from an audio signal. International Journal of Advanced Trends in Computer Science and Engineer-ing, 9(2), 974-976.
Prabhakar, S. K., Rajaguru, H., & Won, D.-O. (2024). Coherent feature extraction with swarm intelligence based hybrid adaboost weighted ELM classification for snoring sound classi-fication. Diagnostics, 14(17), 1857. https://doi.org/10.3390/diagnostics14171857.
Lee, J., & Oxenham, A. J. (2025). Temporal coherence effects on voice attribution in multi-speaker stream segregation. JASA Express Let-ters, 5(5). https://doi.org/10.1121/10.0036672.
Rainio, O., Teuho, J., & Klén, R. (2024). Evaluation metrics and statistical tests for ma-chine learning. Scientific Reports, 14(1). https://doi.org/10.1038/s41598-024-56706-x.
##submission.downloads##
Опубліковано
Як цитувати
Номер
Розділ
Ліцензія

Ця робота ліцензується відповідно до Creative Commons Attribution-NonCommercial 4.0 International License.