АНАЛІЗ ІСНУЮЧИХ МОДЕЛЕЙ ГЛИБИННОГО НАВЧАННЯ В ЗАДАЧАХ ОБРОБКИ ПРИРОДНОЇ МОВИ

Автор(и)

DOI:

https://doi.org/10.32782/IT/2024-3-7

Ключові слова:

глибинне навчання, рекурентні нейронні мережі, LSTM, GRU, обробка природної мови, аналіз емоцій

Анотація

Обробка природної мови (NLP) є однією з найактуальніших галузей штучного інтелекту, що охоплює широкий спектр завдань, таких як аналіз емоцій, машинний переклад, розпізнавання мовлення та інші. Мета роботи: Метою цього дослідження є всебічний аналіз продуктивності моделей глибинного навчання, включаючи рекурентні нейронні мережі (RNN), мережі довготривалої короткочасної пам’яті (LSTM) та керовані рекурентні блоки (GRU), у задачах NLP. Особлива увага приділяється ефективності цих моделей у завданнях аналізу емоцій. Методологія: Дослідження включає кілька етапів: збір та попередню обробку даних, реалізацію та навчання моделей RNN, LSTM і GRU на вибраних наборах даних, оцінку їхньої продуктивності за допомогою таких показників, як точність, пригадування та F1-score, а також аналіз ресурсних вимог моделей, особливо в умовах обмежених обчислювальних ресурсів. Крім того, у роботі проводиться порівняльний аналіз моделей за показниками їхньої масштабованості при роботі з великими обсягами даних. Наукова новизна: Дане дослідження пропонує детальний порівняльний аналіз ефективності RNN, LSTM та GRU в різних задачах NLP, з акцентом на їхній здатності обробляти послідовні дані та враховувати довготривалі залежності. Проведений аналіз виявляє, яка з моделей є найбільш ефективною в конкретних умовах, залежно від доступних ресурсів і специфіки даних. Висновки: В результаті дослідження було встановлено, що GRU показала найвищу продуктивність в аналізі емоцій, перевершуючи RNN і LSTM за точністю, пригадуванням і F1-score. LSTM виявилася оптимальною для роботи з великими обсягами даних, демонструючи високу ефективність і точність. RNN, хоча і забезпечує швидке навчання на невеликих наборах даних, поступається іншим моделям у точності, що робить її менш придатною для складних задач NLP. Отримані результати містять цінну інформацію для дослідників і практиків, які займаються застосуванням моделей глибинного навчання у задачах NLP.

Посилання

Natural Language Processing – DeepLearning.AI. URL: https://www.deeplearning.ai/resources/naturallanguage-processing/ (дата звернення: 05.09.2024).

Afanasieva I., Golian N., Hnatenko O., Daniiel Y., Onyshchenko K. Data exchange model in the Internet of Things concept. Telecommunications and Radio Engineering. New York, 2019. Vol. 78, № 10. P. 869–878.

Golian, V., Golian, N., Afanasieva, I., Halchenko, K., Onyshchenko, K., Dudar, Z. Study of Methods for Determining Types and Measuring of Agricultural Crops due to Satellite Images. 32nd International Scientific Symposium Metrology and Metrology Assurance, MMA 2022, Sozopol, Bulgaria.

Recurrent Neural Networks (RNN) – EDUCBA. URL: https://www.educba.com/recurrent-neural-networksrnn/(дата звернення: 05.09.2024).

Anish Nama. Understanding LSTM Architecture, Pros and Cons, and Implementation. Medium, 2020. URL: https://medium.com/@anishnama20/understanding-lstm-architecture-pros-and-cons-and-implementation-3e0cca194094 (дата звернення: 03.09.2024).

Anish Nama. Understanding Gated Recurrent Unit (GRU) in Deep Learning. Medium, 2020. URL: https://medium.com/@anishnama20/understanding-gated-recurrent-unit-gru-in-deep-learning-2e54923f3e2 (дата звернення: 02.09.2024).

Pandey P. Emotion dataset. Kaggle. URL: https://www.kaggle.com/datasets/parulpandey/emotiondataset (дата звернення: 05.09.2024).

Afanasieva, I., Golian, N., Golian, V., Khovrat, A., Onyshchenko, K. Application of Neural Networks to Identify of Fake News. Computational Linguistics and Intelligent Systems (COLINS 2023): 7th International Conference, Kharkiv, 20 April – 21 April 2023: CEUR workshop proceedings, No. 3396. P. 346–358. URL: https://ceur-ws.org/Vol-3396/paper28.pdf (дата звернення: 02.09.2024).

Turuta O., Afanasieva I., Golian N., Golian V., Onyshchenko K., Suvorov D. Audio processing methods for speech emotion recognition using machine learning. MoMLet-2024: 6th International Workshop on Modern Machine Learning Technologies, 31 травня – 1 червня 2024 р., Львів-Шацьк, Україна. С. 75–108.

James, G., Witten, D., Hastie, T., Tibshirani, R. An Introduction to Statistical Learning with Applications in R. New York: Springer, 2013. 426 p.

##submission.downloads##

Опубліковано

2024-12-06