Пожалуйста, используйте этот идентификатор, чтобы цитировать или ссылаться на этот ресурс:
http://elar.urfu.ru/handle/10995/140525
Название: | Дообучение больших языковых моделей для решения специализированных задач : магистерская диссертация |
Другие названия: | LLM Tuning for Specific Tasks |
Авторы: | Молчанова, Т. А. Molchanova, T. A. |
Научный руководитель: | Долганов, А. Ю. Dolganov, A. Yu. |
Дата публикации: | 2024 |
Издатель: | б. и. |
Библиографическое описание: | Молчанова, Т. А. Дообучение больших языковых моделей для решения специализированных задач : магистерская диссертация / Т. А. Молчанова ; Уральский федеральный университет имени первого Президента России Б. Н. Ельцина, Институт радиоэлектроники и информационных технологий-РТФ, Кафедра информационных технологий и систем управления. — Екатеринбург, 2024. — 79 с. — Библиогр.: с. 73-79 (48 назв.). |
Аннотация: | В выпускной квалификационной работе рассмотрены методы дообучения больших языковых моделей для решения специализированных задач. В качестве специализированной задачи был выбран мультиязычный перевод в сфере информационной безопасности. Для дообучения и оценки моделей был собран датасет из 1001 тройки параллельных предложений на русском, английском и испанском языках из документов компаний Trellix, IBM, Kaspersky и Dr. Web. В качестве моделей для дообучения были выбраны Mistral Instruct 7B и Llama Chat 7B. Дообучение моделей проводилось методами zero-shot, few-shot и PEFT ввиду ограничений исследования, заключающихся в использовании одного устройства с одной видеокартой объёмом 12-24 ГБ. Оценка качества переводов полученных моделей рассчитывалась на основе метрики BLEU. The work is devoted to comparison of LLM-tuning methods for specific tasks. Multilingual translation in the domain of information security was chosen as a specific task. In order to tune and evaluate the models, a dataset of 1001 triples of parallel sentences in Russian, English and Spanish was collected from documentation of Trellix, IBM, Kaspersky and Dr. Web. The models that were used for tuning are Mistral Instruct 7B and Llama Chat 7B. As for the tuning technics, zero-shot, few-shot and PEFT were used due to the limitations grounded in usage of one device with one GPU of 12-24 GB. The translation capabilities of the resulting models were measured by the BLEU metric. |
Ключевые слова: | MASTER'S THESIS LANGUAGE MODELLING LARGE LANGUAGE MODELS TRANSFORMERS MODEL TUNING MODEL QUANTIZATION MACHINE TRANSLATION MULTILINGUAL MACHINE TRANSLATION МАГИСТЕРСКАЯ ДИССЕРТАЦИЯ ЯЗЫКОВОЕ МОДЕЛИРОВАНИЕ БОЛЬШИЕ ЯЗЫКОВЫЕ МОДЕЛИ ТРАНСФОРМЕРЫ ДООБУЧЕНИЕ МОДЕЛЕЙ КВАНТИЗАЦИЯ МОДЕЛЕЙ МАШИННЫЙ ПЕРЕВОД МУЛЬТИЯЗЫЧНЫЙ МАШИННЫЙ ПЕРЕВОД |
URI: | http://elar.urfu.ru/handle/10995/140525 |
Условия доступа: | Предоставлено автором на условиях простой неисключительной лицензии |
Текст лицензии: | http://elar.urfu.ru/handle/10995/31613 |
Располагается в коллекциях: | Магистерские диссертации |
Файлы этого ресурса:
Файл | Описание | Размер | Формат | |
---|---|---|---|---|
m_th_t.a.molchanova_2024.pdf | 1,34 MB | Adobe PDF | Просмотреть/Открыть |
Все ресурсы в архиве электронных ресурсов защищены авторским правом, все права сохранены.