Тип публикации: доклад, тезисы доклада, статья из сборника материалов конференций
Конференция: XIV Всероссийская научно-техническая конференция с международным участием "Робототехника и искусственный интеллект"; Железногорск; Железногорск
Год издания: 2022
Ключевые слова: nlp, deep learning, bert, artificial neural network, обработка естественного языка, глубокое обучение, искусственные нейронные сети
Аннотация: Модель представления естественного языка BERT, основанная на технологиях глубокого обучения представляет собой популярное средство при решении задач обработки естественного языка. В данной статье рассматривается актуальность моделей BERT, и Transformer, а также их архитектура. This article is an overview of the language representation model called BERT based on deep learning. BERT is a popular tool for solving natural language processing problems. This article discusses the relevance of the BERT and Transformer models, as well as their architecture.
Издание
Журнал: Робототехника и искусственный интеллект
Номера страниц: 94-97
Издатель: ЛИТЕРА-принт
Персоны
- Васильев Д.Д. (Сибирский федеральный университет)
- Пятаева Анна Владимировна (Сибирский федеральный университет)
Вхождение в базы данных
Информация о публикациях загружается с сайта службы поддержки публикационной активности СФУ. Сообщите, если заметили неточности.