Пожалуйста, используйте этот идентификатор, чтобы цитировать или ссылаться на этот ресурс: http://elar.urfu.ru/handle/10995/136785
Полная запись метаданных
Поле DCЗначениеЯзык
dc.contributor.authorАнтипов, А. В.ru
dc.contributor.authorAntipov, A. V.en
dc.date.accessioned2024-07-25T09:50:47Z-
dc.date.available2024-07-25T09:50:47Z-
dc.date.issued2024-
dc.identifier.citationАнтипов А. В. Искусственные моральные агенты: деонтология и моральный тест Тьюринга / А. В. Антипов // Koinon. — 2024. — Т. 4, № 1-2. — С. 9–17.ru
dc.identifier.issn2782-5914print
dc.identifier.issn2782-5906online
dc.identifier.urihttp://elar.urfu.ru/handle/10995/136785-
dc.descriptionСтатья поступила в редакцию 01.04.2024; одобрена после рецензирования 15.04.2024; принята к публикации 15.04.2024.ru
dc.descriptionThe article was submitted 01.04.2024; approved after reviewing 15.04.2024; accepted for publication 15.04.2024.en
dc.description.abstractИсследования искусственного интеллекта являются одним из основных трендов современности. При этом научным сообществом осознаются значительные этические риски, связанные с его появлением, среди которых непрозрачность принятия решений, невозможность определения субъекта ответственности, проблема предвзятости и справедливости. Для минимизации и элиминации обозначенных рисков в литературе предлагается концепт искусственных моральных агентов, поведение которых выстраивалось бы на человеческих этике и морали. Однако возникают сопутствующие затруднения, наиболее важным из которых является невозможность однозначного выбора этической теории, связанная с их принципиальной несогласованностью. В данной статье предлагается рассмотреть деонтологию как один из вариантов, который может быть использован в структуре искусственных моральных агентов. Автор показывает преимущества деонтологии перед другими этическими системами: более простая формализация самой теории, системность и универсализуемость принципов, — а также потенциальные проблемы, такие как различение долженствования и категории допустимости, а также формализация конкретных максим. Однако помимо построения и выбора подходящей теории возникают затруднения, связанные с тем, каким образом определить, что созданный искусственный моральный агент в достаточной степени морален. Для этого в статье рассматривается моральный тест Тьюринга, который призван помочь ученым в этом вопросе.ru
dc.description.abstractArtificial intelligence research is one of the trends of our time. Both it is stated not only about the need to develop artificial intelligence, but also about the significant ethical risks due its emergence. Such risks are understood as nontransparency of decision-making, lack of identifying a subject of responsibility, the problem of bias and fairness. To minimise and eliminate these risks, the science suggests the concept of artificial moral agents, whose behaviour would be based on human ideas about ethics and the morality of action. However, there are additional difficulties, the most important of which is the impossibility of unambiguous choice of ethical theory, i.e. the problem of fundamental incoherence of ethical theories. This article proposes to consider deontology as one of the options that can be used in the structure-building of artificial moral agents. The author shows the advantages of deontology over other ethical systems, which consist in the simpler formalisation of the theory itself, as well as in the systematicity and universalizability of the principles. At the same time, potential problems are also shown, such as the problem of the distinction between oughtness and the category of permissibility, and in the formalisation of specific maxims. However, if we need to construct and embed a suitable theory, there is the problem of how to determine that the artificial moral agent created is sufficiently moral. Finally, the paper discusses the Turing moral test, which is designed to help determine whether an artificial agent is moral.en
dc.language.isoruen
dc.publisherUral Federal Universityen
dc.publisherУральский федеральный университетru
dc.relation.ispartofKoinon. 2024. Т. 4. № 1-2en
dc.subjectИСКУССТВЕННЫЙ ИНТЕЛЛЕКТru
dc.subjectИСКУССТВЕННЫЙ МОРАЛЬНЫЙ АГЕНТru
dc.subjectДЕОНТОЛОГИЯru
dc.subjectТЕСТ ТЬЮРИНГАru
dc.subjectМОРАЛЬНЫЙ ТЕСТ ТЬЮРИНГАru
dc.subjectARTIFICIAL INTELLIGENCEen
dc.subjectARTIFICIAL MORAL AGENTen
dc.subjectDEONTOLOGYen
dc.subjectTURING TESTen
dc.subjectMORAL TURING TESTen
dc.titleИскусственные моральные агенты: деонтология и моральный тест Тьюрингаru
dc.title.alternativeArtificial Moral Agents: Deontology and the Moral Turing Testen
dc.typeArticleen
dc.identifier.rsihttps://www.elibrary.ru/item.asp?id=68514978-
dc.identifier.doi10.15826/koinon.2024.04.1.2.001-
local.description.firstpage9-
local.description.lastpage17-
local.issue1-2-
local.volume4-
local.contributorАнтипов, Алексей Владимировичru
Располагается в коллекциях:KOINON

Файлы этого ресурса:
Файл Описание РазмерФормат 
k_1-2_2024_02.pdf137,71 kBAdobe PDFПросмотреть/Открыть


Все ресурсы в архиве электронных ресурсов защищены авторским правом, все права сохранены.