Пожалуйста, используйте этот идентификатор, чтобы цитировать или ссылаться на этот ресурс:
http://elar.urfu.ru/handle/10995/72063
Название: | Interpretability of machine learning models |
Другие названия: | Интерпретируемость моделей машинного обучения |
Авторы: | Neustroev, D. D. Kurmanova, D. I. Неустроев, Д. Д. Курманова, Д. И. |
Дата публикации: | 2019 |
Издатель: | ООО «Издательский Дом «Ажур» |
Библиографическое описание: | Неустроев Д. Д. Интерпретируемость моделей машинного обучения / Д. Д. Неустроев, Д. И. Курманова // Язык в сфере профессиональной коммуникации : сборник материалов международной научно-практической конференции преподавателей, аспирантов и студентов (Екатеринбург, 18 апреля 2019 года). — Екатеринбург : ООО «Издательский Дом «Ажур», 2019. — С. 484-488. |
Аннотация: | As machine learning algorithms have been used in many areas of our lives, for example, self-driving cars, healthcare, and the financial industry, the problem of trust is becoming even more urgent. To trust the decisions that the algorithms adopt, we need to understand the nature of their occurrence, so often we need not only a theoretical understanding of their work, but also special tools that would explain the origin of the findings within the algorithms themselves and present the withdrawn information in an informative and accessible form. This article will list some problems related to the interpretation of machine learning algorithms, as well as the desired properties of interpreted models that can improve the perception of algorithms and increase people's confidence in the decisions made. In the following, some visual analytics tools will be discussed, as well as one of the model-agnostic methods, LIME, which studies the model locally around the prediction and explains any classifier. Поскольку алгоритмы машинного обучения стали применяться во многих сферах нашей жизни, например, беспилотные автомобили, здравоохранение, финансовая индустрия, то проблема доверия становится все более актуальной. Чтобы довериться решениям, которые принимают алгоритмы, мы должны понимать природу их возникновения, поэтому часто требуется не только теоретическое понимание их работы, но и специальные инструменты, которые бы объяснили происхождения выводов внутри самих алгоритмов и представили изъятую информацию в информативном и доступном для человека виде. В этой статье будут перечислены некоторые проблемы, касающиеся интерпретации алгоритмов машинного обучения, а также желаемые свойства интерпретируемых моделей, способных улучшить восприятие алгоритмов и увеличить у человека доверие к принятым решениям. В дальнейшем будет рассказано про некоторые инструменты визуальной аналитики, а также один из модельно-агностических методов – LIME, который изучает модель локально вокруг предсказания и объясняет любой классификатор. |
Ключевые слова: | MACHINE LEARNING EXPLANATION MODEL INTERPRETABILITY PREDICTIONS TRANSPARENCY МАШИННОЕ ОБУЧЕНИЕ ОБЪЯСНЕНИЕ ИНТЕРПРЕТАЦИЯ МОДЕЛЕЙ ПРЕДСКАЗАНИЯ ПРОЗРАЧНОСТЬ |
URI: | http://elar.urfu.ru/handle/10995/72063 |
Конференция/семинар: | International research to practice conference for educators, postgraduates and students "Languages in professional communication" Международная научно-практическая конференция преподавателей, аспирантов и студентов «Язык в сфере профессиональной коммуникации» |
Дата конференции/семинара: | 18.04.2019 |
ISBN: | 978-5-91256-441-3 |
Источники: | Язык в сфере профессиональной коммуникации. — Екатеринбург, 2019 |
Располагается в коллекциях: | Конференции, семинары |
Файлы этого ресурса:
Файл | Описание | Размер | Формат | |
---|---|---|---|---|
978-5-91256-441-3_2019_086.pdf | 244,98 kB | Adobe PDF | Просмотреть/Открыть |
Все ресурсы в архиве электронных ресурсов защищены авторским правом, все права сохранены.