Пожалуйста, используйте этот идентификатор, чтобы цитировать или ссылаться на этот ресурс: http://elar.urfu.ru/handle/10995/140525
Полная запись метаданных
Поле DCЗначениеЯзык
dc.contributor.advisorДолганов, А. Ю.ru
dc.contributor.advisorDolganov, A. Yu.en
dc.contributor.authorМолчанова, Т. А.ru
dc.contributor.authorMolchanova, T. A.en
dc.date.accessioned2025-01-09T11:19:03Z-
dc.date.available2025-01-09T11:19:03Z-
dc.date.issued2024-
dc.identifier.citationМолчанова, Т. А. Дообучение больших языковых моделей для решения специализированных задач : магистерская диссертация / Т. А. Молчанова ; Уральский федеральный университет имени первого Президента России Б. Н. Ельцина, Институт радиоэлектроники и информационных технологий-РТФ, Кафедра информационных технологий и систем управления. — Екатеринбург, 2024. — 79 с. — Библиогр.: с. 73-79 (48 назв.).ru
dc.identifier.urihttp://elar.urfu.ru/handle/10995/140525-
dc.description.abstractВ выпускной квалификационной работе рассмотрены методы дообучения больших языковых моделей для решения специализированных задач. В качестве специализированной задачи был выбран мультиязычный перевод в сфере информационной безопасности. Для дообучения и оценки моделей был собран датасет из 1001 тройки параллельных предложений на русском, английском и испанском языках из документов компаний Trellix, IBM, Kaspersky и Dr. Web. В качестве моделей для дообучения были выбраны Mistral Instruct 7B и Llama Chat 7B. Дообучение моделей проводилось методами zero-shot, few-shot и PEFT ввиду ограничений исследования, заключающихся в использовании одного устройства с одной видеокартой объёмом 12-24 ГБ. Оценка качества переводов полученных моделей рассчитывалась на основе метрики BLEU.ru
dc.description.abstractThe work is devoted to comparison of LLM-tuning methods for specific tasks. Multilingual translation in the domain of information security was chosen as a specific task. In order to tune and evaluate the models, a dataset of 1001 triples of parallel sentences in Russian, English and Spanish was collected from documentation of Trellix, IBM, Kaspersky and Dr. Web. The models that were used for tuning are Mistral Instruct 7B and Llama Chat 7B. As for the tuning technics, zero-shot, few-shot and PEFT were used due to the limitations grounded in usage of one device with one GPU of 12-24 GB. The translation capabilities of the resulting models were measured by the BLEU metric.en
dc.format.mimetypeapplication/pdfen
dc.language.isoruen
dc.publisherб. и.ru
dc.rightsПредоставлено автором на условиях простой неисключительной лицензииru
dc.rights.urihttp://elar.urfu.ru/handle/10995/31613en
dc.subjectMASTER'S THESISen
dc.subjectLANGUAGE MODELLINGen
dc.subjectLARGE LANGUAGE MODELSen
dc.subjectTRANSFORMERSen
dc.subjectMODEL TUNINGen
dc.subjectMODEL QUANTIZATIONen
dc.subjectMACHINE TRANSLATIONen
dc.subjectMULTILINGUAL MACHINE TRANSLATIONen
dc.subjectМАГИСТЕРСКАЯ ДИССЕРТАЦИЯru
dc.subjectЯЗЫКОВОЕ МОДЕЛИРОВАНИЕru
dc.subjectБОЛЬШИЕ ЯЗЫКОВЫЕ МОДЕЛИru
dc.subjectТРАНСФОРМЕРЫru
dc.subjectДООБУЧЕНИЕ МОДЕЛЕЙru
dc.subjectКВАНТИЗАЦИЯ МОДЕЛЕЙru
dc.subjectМАШИННЫЙ ПЕРЕВОДru
dc.subjectМУЛЬТИЯЗЫЧНЫЙ МАШИННЫЙ ПЕРЕВОДru
dc.titleДообучение больших языковых моделей для решения специализированных задач : магистерская диссертацияru
dc.title.alternativeLLM Tuning for Specific Tasksen
dc.typeMaster's thesisen
dc.typeinfo:eu-repo/semantics/publishedVersionen
dc.typeinfo:eu-repo/semantics/masterThesisen
dc.thesis.levelМагистрru
dc.contributor.departmentУрФУ. Институт радиоэлектроники и информационных технологий-РТФru
dc.thesis.speciality09.04.01 - Информатика и вычислительная техникаru
dc.contributor.subdepartmentКафедра информационных технологий и систем управленияru
Располагается в коллекциях:Магистерские диссертации

Файлы этого ресурса:
Файл Описание РазмерФормат 
m_th_t.a.molchanova_2024.pdf1,34 MBAdobe PDFПросмотреть/Открыть


Все ресурсы в архиве электронных ресурсов защищены авторским правом, все права сохранены.