Пожалуйста, используйте этот идентификатор, чтобы цитировать или ссылаться на этот ресурс: http://elar.urfu.ru/handle/10995/117503
Название: NEGATIVE-SAMPLING WORD-EMBEDDING METHOD
Другие названия: МЕТОД ВСТРАИВАНИЯ СЛОВ С ОТРИЦАТЕЛЬНОЙ ВЫБОРКОЙ
Авторы: Ержанқызы, Б. М.
Erzhankyzy, B. M.
Дата публикации: 2022
Издатель: Нижнетагильский технологический институт (филиал) Уральского федерального университета
Библиографическое описание: Ержанқызы Б. М. NEGATIVE-SAMPLING WORD-EMBEDDING METHOD / Б. М. Ержанқызы, . — Текст : электронный // Молодежь и наука : материалы международной научно-практической конференции старшеклассников, студентов и аспирантов (27 мая 2022 г.) : в 2 томах. — Нижний Тагил : НТИ (филиал) УрФУ, 2022. — Том 2. — С. 35-42.
Аннотация: Одним из самых известных авторов метода является Томас Миколов. Его программное обеспечение и метод теоретического применения являются одними из основных для нашего сегодняшнего рассмотрения. Стоит отметить, что он более математически ориентирован. Сам автор, Томас Миколов, имел больше отношения к математике, и его метод касается прежде всего математического решения для теоретического, а затем практического решения для создания этого и метода, который мы анализируем. Плотные векторные представления слов в последнее время приобрели популярность в качестве функций фиксированной длины для алгоритмов машинного обучения, и система Миколова в настоящее время широко используется. Мы исследуем один из его основных компонентов, отрицательную выборку, и предлагаем эффективные распределенные методы, которые позволяют нам масштабировать, чтобы указать и исключить возможность потери вероятности при аналогичном значении. Говоря о развитии нейронной сети, не стоит забывать о математической базовой теории понимания вероятности выбора слова. Кроме того, этот метод сфокусирован на одном действии в широком смысле для обработки распознавания вышеупомянутого вектора или слов.
One of the most famous authors of the method is the person Thomas Mikolov. Its software and method of theoretical application is one of the major ones for our consideration today. It is better to pay attention that it is more mathematically oriented. The author himself had more to do with mathematics and his method concerns first of all a mathematical solution for a theoretical, and then a practical solution for creating this and the method we are analyzing. Dense vector word representations have lately gained popularity as fixed-length features for machine learning algorithms, and Mikolov’s system is now widely used. We investigate one of its main components, Negative Sampling, and offer efficient distributed methods that allow us to scale to indicate and exclude the possibility of probability loss in a similar value. Furthermore, this method is laser-focused on a single action in the broad sense for processing the recognition of the above-mentioned vector or words.
Ключевые слова: ГРАФИКИ
ОТРИЦАТЕЛЬНАЯ ВЫБОРКА
МЕТОД ВСТРАИВАНИЯ СЛОВ
ТОМАС МИКОЛОВ
ОБУЧЕНИЕ
МАТЕМАТИЧЕСКАЯ БАЗОВАЯ ТЕОРИЯ
ПОСЛЕДОВАТЕЛЬНОСТЬ
МАТРИЦА
ВЕКТОРЫ
GRAPHS
NEGATIVE SAMPLING
METHOD OF WORD EMBEDDING
ТHOMAS MIKOLOV
TRAIN
MATHEMATICAL BASIC THEORY
SEQUENCE
MATRIX
VECTORS
URI: http://elar.urfu.ru/handle/10995/117503
Условия доступа: info:eu-repo/semantics/restrictedAccess
Конференция/семинар: Международная научно-практическая конференция старшеклассников, студентов и аспирантов «Молодежь и наука»
Дата конференции/семинара: 27.05.2022
ISBN: 978-5-9544-0131-8
978-5-9544-0133-2 (т. 2)
Источники: Молодежь и наука. — Том 2. — Нижний Тагил, 2022
Располагается в коллекциях:Конференции, семинары

Файлы этого ресурса:
Файл Описание РазмерФормат 
978-5-9544-0133-2_2022_009.pdf198,32 kBAdobe PDFПросмотреть/Открыть


Все ресурсы в архиве электронных ресурсов защищены авторским правом, все права сохранены.