Разработка компьютерной системы обучения студентов на основе визуально-лингвистических моделей
- Авторы: Щетинин Е.Ю.1, Глушкова А.Г.2, Демидова А.В.3
-
Учреждения:
- Финансовый университет при Правительстве Российской Федерации
- Эндевор
- Российский университет дружбы народов
- Выпуск: Том 32, № 2 (2024)
- Страницы: 234-241
- Раздел: Статьи
- URL: https://journals.rudn.ru/miph/article/view/41391
- DOI: https://doi.org/10.22363/2658-4670-2024-32-2-234-241
- EDN: https://elibrary.ru/CUCXTY
Цитировать
Полный текст
Аннотация
В последние годы методы искусственного интеллекта получили большое развитие в различных областях, в частности в образовании. Разработка компьютерных систем для обучения студентов является важной задачей и может значительно улучшить процесс обучения студентов. Разработка и внедрение методов глубокого обучения в образовательный процесс приобрели огромную популярность. Наиболее успешными среди них являются модели, учитывающие мультимодальный характер информации, в частности сочетание текста, звука, изображений и видео. Сложность обработки таких данных состоит в том, что объединение мультимодальных входных данных различными методами конкатенации каналов, игнорирующих неоднородность разных модальностей, является неэффективным подходом. Для решения этой проблемы в работе предложен междуканальный модуль внимания. В статье представлена компьютерная визуально-лингвистическая система процесса обучения студентов, основанная на объединении мультимодальных входных данных с использованием междуканального модуля внимания. Показано, что создание эффективных и гибких систем и технологий обучения на основе таких моделей позволяет адаптировать образовательный процесс к индивидуальным потребностям обучающихся и повысить его эффективность.
Об авторах
Е. Ю. Щетинин
Финансовый университет при Правительстве Российской Федерации
Автор, ответственный за переписку.
Email: riviera-molto@mail.ru
ORCID iD: 0000-0003-3651-7629
Scopus Author ID: 16408533100
ResearcherId: O-8287-2017
Doctor of Physical and Mathematical Sciences, lecturer of Department of Mathematics
Ленинградский пр-т, д. 49, Москва, 125993, Российская ФедерацияА. Г. Глушкова
Эндевор
Email: aglushkova@endeavorco.com
ORCID iD: 0000-0002-8285-0847
Scopus Author ID: 57485591900
researcher
ш. Чизвик, д. 566, Чизвик Парк, Лондон W4 5HR, ВеликобританияА. В. Демидова
Российский университет дружбы народов
Email: demidova-av@rudn.ru
ORCID iD: 0000-0003-1000-9650
Candidate of Physical and Mathematical Sciences, Assistant professor of Department of Probability Theory and Cyber Security
ул. Миклухо-Маклая, д. 6, Москва, 117198, Российская ФедерацияСписок литературы
- Devlin, J., Chang, M., Lee, K. & K., T. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding 2018.
- Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, Ł. & Polosukhin, I. Attention is All you Need in Advances in Neural Information Processing Systems (eds Guyon, I., Luxburg, U. V., Bengio, S., Wallach, H., Fergus, R., Vishwanathan, S. & Garnett, R.) 30 (Curran Associates, Inc., 2017), 5998-6008.
- Liu Y. andOtt, M., Goyal N. andDu, J., Joshi, M., Chen, D., Levy, O., Lewis M. andZettlemoyer, L. & V., S. RoBERTa: A Robustly Optimized BERT Pretraining Approach 2019.
- Clark, E. & Gardner, M. Simple and Effective Multi-Paragraph Reading Comprehension 2018.
- Klein, G., Kim, Y., Deng, Y., Senellart, J. & Rush, A. OpenNMT: Open-Source Toolkit for Neural Machine Translation in Proceedings of ACL 2017, System Demonstrations (eds Bansal, M. & Ji, H.) 28 (Association for Computational Linguistics, Vancouver, Canada, July 2017), 67-72. doi: 10.18653/V1/P17-4012.
- Radford, A., Narasimhan, K., Salimans, T. & Sutskever, I. Improving language understanding by generative pre-training https://cdn.openai.com/research-covers/language-unsupervised/language_understanding_paper.pdf.
- Nogueira, R. & Cho, K. Passage Re-ranking with BERT 2019.
- Schröder, S., Niekler, A. & Potthast, M. Revisiting Uncertainty-based Query Strategies for Active Learning with Transformers 2021.
- Yang, F., Wang, X., Ma, H. & Li, J. Transformers-sklearn: a toolkit for medical language understanding with transformer-based models. BMC Medical Informatics and Decision Making 21, 141-157. doi: 10.1186/s12911-021-01459-0 (2021).
- Rashid, M., Höhne, J., Schmitz, G. & Müller-Putz, G. A Review of Humanoid Robots Controlled by Brain-Computer Interfaces. Frontiers in Neurorobotics, 1-28 (2020).