Может ли ИИ быть носителем моральной ответственности?

Дата публикации: 26.02.2026

Может ли ИИ быть носителем моральной ответственности?

Щапова С.Д.
Аннотация: В работе рассматривается вопрос о том, может ли искусственный интеллект выступать субъектом моральной ответственности. Приводится анализ существующей практики применения систем искусственного интеллекта, рассмотрение различных точек зрения на эту проблему. Выводятся три возможные модели распределения ответственности: признание ответственности за разработчиками, пользователями и смешанная модель. В настоящее время, несмотря на техническую сложность современных систем ИИ, их неспособность к самосознанию и моральным суждениям делает вопрос о возможности несения ответственности спорным. При выделении ключевых отличий искусственного интеллекта от человеческого сознания максимально явной становится роль ИИ как инструмента, в связи с чем ответственность, по мнению автора, должна возлагаться на человека.
Ключевые слова: искусственный интеллект, ответственность, нормы, сознание, санкции, субъектность, технологии.
Полный текст статьи