Телефон: 8-800-350-22-65
Напишите нам:
WhatsApp:
Telegram:
MAX:
Прием заявок круглосуточно
График работы офиса: с 9:00 до 21:00 Нск (с 5:00 до 19:00 Мск)

Статья опубликована в рамках: Научного журнала «Студенческий» № 9(347)

Рубрика журнала: Юриспруденция

Скачать книгу(-и): скачать журнал часть 1, скачать журнал часть 2, скачать журнал часть 3

Библиографическое описание:
Ермолаева А.Д., Крутько З.Е. ОТВЕТСТВЕННОСТЬ СУБЪЕКТОВ ПРЕДПРИНИМАТЕЛЬСКОЙ ДЕЯТЕЛЬНОСТИ ЗА УБЫТКИ, ПРИЧИНЕННЫЕ РЕШЕНИЯМИ АВТОНОМНЫХ СИСТЕМ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА // Студенческий: электрон. научн. журн. 2026. № 9(347). URL: https://sibac.info/journal/student/347/405721 (дата обращения: 03.04.2026).

ОТВЕТСТВЕННОСТЬ СУБЪЕКТОВ ПРЕДПРИНИМАТЕЛЬСКОЙ ДЕЯТЕЛЬНОСТИ ЗА УБЫТКИ, ПРИЧИНЕННЫЕ РЕШЕНИЯМИ АВТОНОМНЫХ СИСТЕМ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

Ермолаева Александра Дмитриевна

студент, юридический факультет, Ростовский филиал Российского государственного университета правосудия имени В.М. Лебедева,

РФ, г. Ростов-на-Дону

Крутько Злата Евгеньевна

студент, юридический факультет, Ростовский филиал Российского государственного университета правосудия имени В.М. Лебедева,

РФ, г. Ростов-на-Дону

Колесник Вероника Вячеславовна

научный руководитель,

д-р юрид. наук, проф., Ростовский филиал Российского государственного университета правосудия имени В. М. Лебедева,

РФ, г. Ростов-на-Дону

RESPONSIBILITY OF ENTREPRENEURS FOR DAMAGES CAUSED BY AUTONOMOUS ARTIFICIAL INTELLIGENCE SYSTEMS

 

Ermolaeva Alexandra Dmitrievna

Student, Faculty of Law, Rostov Branch of the Russian State University of Justice named after V.M. Lebedev,

Russia, Rostov‑on‑Don

Krutko Zlata Evgenievna

Student, Faculty of Law, Rostov Branch of the Russian State University of Justice named after V.M. Lebedev,

Russia, Rostov‑on‑Don

Kolesnik Veronika Vyacheslavovna

Scientific supervisor, Doctor of Law (D.Sc. in Law), Professor, Rostov Branch of the Russian State University of Justice named after V.M. Lebedev,

Russia, RostovonDon

 

АННОТАЦИЯ

 Статья анализирует гражданско-правовую ответственность бизнеса за убытки от решений автономного ИИ, предлагает модель распределения ответственности между разработчиком, владельцем и оператором и обосновывает необходимость специальных норм.

ABSTRACT

The article analyzes the civil liability of businesses for losses caused by autonomous AI decisions, proposes a model for distributing liability between the developer, owner, and operator, and justifies the need for special regulations.

 

Ключевые слова: искусственный интеллект, ответственность, убытки, риск, предпринимательство.

Keywords: artificial intelligence, liability, losses, risk, entrepreneurship.

 

В условиях стремительной цифровизации экономики и активного внедрения технологий искусственного интеллекта в предпринимательскую деятельность особую актуальность приобретает проблема распределения рисков и юридической ответственности за последствия функционирования автономных систем. Использование интеллектуальных алгоритмов в сфере финансов, логистики, электронной коммерции, медицины и промышленного производства позволяет существенно повысить эффективность бизнес-процессов, однако одновременно порождает новые виды правовых рисков. В этой связи возрастает значимость комплексного научного осмысления ответственности субъектов предпринимательской деятельности за убытки, причинённые решениями автономных систем искусственного интеллекта.

Современные автономные системы, основанные на технологиях машинного обучения и нейросетевых архитектурах, способны самостоятельно принимать решения без прямого участия человека. Такие решения могут оказывать существенное влияние на имущественные интересы контрагентов, потребителей и иных участников гражданского оборота. В случае причинения вреда или убытков возникает сложный вопрос: кто должен нести ответственность — разработчик программного обеспечения, владелец системы, оператор, пользователь либо иное лицо, участвующее в её создании и эксплуатации. Традиционные конструкции гражданско-правовой ответственности не всегда позволяют однозначно разрешить подобные споры.

Особую сложность представляет определение правовой природы автономных систем искусственного интеллекта и их места в системе объектов гражданских прав. Отсутствие единообразного нормативного регулирования, а также различия в подходах национальных правопорядков к квалификации искусственного интеллекта как инструмента, источника повышенной опасности или самостоятельного цифрового агента обусловливают необходимость дальнейшей теоретической разработки данной проблематики. Вопрос о пределах предпринимательского риска и о допустимости применения механизмов безвиновной ответственности в отношении владельцев или операторов автономных систем требует отдельного анализа.

В предпринимательской сфере использование автономных систем искусственного интеллекта связано с извлечением прибыли, что усиливает требования к соблюдению принципов добросовестности, разумности и осмотрительности. Неправомерные или ошибочные решения алгоритмов могут привести к финансовым потерям, нарушению договорных обязательств, причинению вреда третьим лицам и репутационным рискам. Следовательно, возникает необходимость формирования эффективного механизма правового регулирования, способного обеспечить баланс интересов бизнеса, потребителей и государства.

Цель настоящего исследования заключается в анализе теоретико-правовых и практических аспектов ответственности субъектов предпринимательской деятельности за убытки, причинённые решениями автономных систем искусственного интеллекта, а также в выработке предложений по совершенствованию действующего законодательства. Для достижения поставленной цели предполагается исследовать существующие модели гражданско-правовой ответственности, определить особенности распределения рисков при использовании автономных технологий и сформулировать рекомендации по адаптации правовых механизмов к условиям цифровой экономики.

Развитие автономных систем искусственного интеллекта (далее — ИИ) обусловлено реализацией стратегических документов Российской Федерации, в частности Стратегии развития искусственного интеллекта до 2030 года, утверждённой распоряжением Правительства РФ от 10.10.2019 № 2129-р Стратегия развития искусственного интеллекта в Российской Федерации до 2030 года. Указанный документ закрепляет приоритетное значение внедрения ИИ в промышленность, транспорт, здравоохранение, финансовый сектор и иные отрасли экономики. Дополнительное институциональное оформление цифровой трансформации получило в рамках реализации Национальная программа «Искусственный интеллект», направленной на формирование нормативной, технологической и кадровой базы. Однако активное внедрение автономных решений сопровождается увеличением числа случаев причинения имущественного вреда вследствие ошибок алгоритмов, сбоев или некорректной обработки данных, что актуализирует проблему гражданско-правовой ответственности субъектов предпринимательской деятельности [3].

Согласно положениям Гражданский кодекс Российской Федерации (часть вторая) (далее — ГК РФ), убытки, причинённые неисполнением или ненадлежащим исполнением обязательств, подлежат возмещению в полном объёме (ст. 15, 393 ГК РФ) [2, c. 410]. В предпринимательских отношениях действует принцип повышенной ответственности, предполагающий ответственность независимо от вины, если иное не предусмотрено законом или договором. В условиях использования автономных систем ИИ возникает вопрос о том, следует ли рассматривать алгоритмические ошибки как предпринимательский риск либо как обстоятельства непреодолимой силы. Преобладающая доктринальная позиция исходит из того, что внедрение ИИ является добровольным выбором хозяйствующего субъекта, а, следовательно, риски его функционирования должны возлагаться на предпринимателя [6, c. 50].

Особый интерес представляет проблема квалификации автономных систем ИИ как источника повышенной опасности. В научной литературе отмечается, что ИИ способен принимать решения, последствия которых могут быть значительными и трудно прогнозируемыми, особенно в промышленной и технологической сфере [7, c. 105]. По мнению Д.С. Зорина, при определённых условиях автономная система может быть отнесена к источникам повышенной опасности, если её функционирование связано с высокой степенью риска причинения вреда и невозможностью полного контроля со стороны человека [8, c. 68]. Такая квалификация повлечёт применение правил о безвиновной ответственности владельца источника повышенной опасности, что существенно усиливает защиту потерпевших.

Таблица 1

Модели ответственности за убытки, причинённые автономными системами ИИ

Субъект

Возможное основание ответственности

Нормативная база

Особенности применения

Разработчик ИИ

Недостатки программного обеспечения, дефекты алгоритма

Гражданский кодекс Российской Федерации (часть вторая)

Ответственность при доказанности вины либо при наличии существенных дефектов продукта

Владелец (предприниматель)

Предпринимательский риск, эксплуатация системы

Гражданский кодекс Российской Федерации (часть вторая)

Возможна безвиновная ответственность; риск использования ИИ возлагается на бизнес

Оператор системы

Ошибки настройки, контроля и эксплуатации

Гражданский кодекс Российской Федерации (часть вторая)

Учитывается степень контроля над системой и соблюдение стандартов эксплуатации

Интегратор (поставщик решения)

Ненадлежащее внедрение и тестирование

Гражданский кодекс Российской Федерации (часть вторая)

Ответственность может быть солидарной при наличии совместной вины

 

Вместе с тем специфика ИИ заключается в многоуровневой структуре субъектного состава: разработчик программного обеспечения, интегратор, поставщик оборудования, оператор и конечный пользователь могут участвовать в создании и эксплуатации системы. В случае причинения убытков возникает необходимость разграничения ответственности между указанными лицами. Как отмечает А.В. Никоноров, в технологических предприятиях критические сбои, вызванные использованием ИИ, нередко обусловлены совокупностью факторов — от дефектов алгоритма до ошибок в настройке и эксплуатации [1]. Это требует применения комплексного подхода к установлению причинно-следственной связи и распределению бремени доказывания между сторонами.

Правовое регулирование в сфере ИИ находится в стадии формирования, что подтверждается анализом нормативной базы, представленной в специализированных информационных ресурсах, таких как Федеральный центр по регулированию ИИ и разработанный им Навигатор по нормативному регулированию ИИ [5]. Отсутствие специального закона, комплексно регулирующего ответственность за вред, причинённый автономными системами, обусловливает применение общих норм гражданского законодательства. При этом, как подчёркивает И.Н. Смирнов, для промышленного применения ИИ характерна повышенная степень технологической сложности, что требует разработки специальных стандартов безопасности и процедур аудита алгоритмов [6, c. 54].

Отдельного внимания заслуживает проблема договорного распределения рисков. В предпринимательской практике стороны нередко включают в договоры условия об ограничении ответственности разработчика или поставщика ИИ. Однако такие условия не должны противоречить императивным нормам гражданского законодательства и принципу недопустимости освобождения от ответственности за умышленное причинение вреда [2, c. 410]. В этой связи актуальным становится вопрос о допустимых пределах диспозитивности при регулировании ответственности за решения автономных систем.

Ответственность субъектов предпринимательской деятельности за убытки, причинённые решениями автономных систем искусственного интеллекта, должна основываться на сочетании принципа предпринимательского риска, положений о безвиновной ответственности и механизмах договорного регулирования. Перспективным направлением развития законодательства представляется закрепление специальных норм, учитывающих степень автономности системы, возможность человеческого контроля и характер причинённого вреда. Комплексный подход позволит обеспечить баланс интересов бизнеса и потерпевших, а также создать предсказуемую правовую среду для дальнейшего развития технологий искусственного интеллекта.

Проведённое исследование позволяет сделать вывод о том, что внедрение автономных систем искусственного интеллекта в предпринимательскую деятельность объективно трансформирует традиционные представления о гражданско-правовой ответственности. Использование ИИ повышает эффективность хозяйственных процессов, однако одновременно усиливает риски причинения имущественного вреда вследствие алгоритмических ошибок, технических сбоев и недостатков программного обеспечения. В условиях отсутствия специального комплексного регулирования ключевое значение приобретают положения Гражданский кодекс Российской Федерации (часть вторая), закрепляющие принципы полного возмещения убытков и повышенной ответственности предпринимателей.

Анализ научных подходов показал, что автономные системы ИИ могут рассматриваться как источник повышенной опасности при наличии высокой степени риска причинения вреда и ограниченных возможностей контроля со стороны человека. В подобных случаях обоснованным представляется применение модели безвиновной ответственности владельца или оператора системы. Одновременно требуется чёткое разграничение ответственности между разработчиком, интегратором и пользователем ИИ с учётом характера допущенных нарушений и причинно-следственной связи между функционированием системы и наступившими убытками.

Перспективы совершенствования правового регулирования связаны с разработкой специальных норм, учитывающих уровень автономности алгоритмов, требования к их тестированию и аудиту, а также механизмы страхования рисков, связанных с применением ИИ. Формирование сбалансированной модели ответственности позволит обеспечить защиту прав потерпевших, повысить доверие к цифровым технологиям и создать устойчивую правовую основу для дальнейшего развития инновационной предпринимательской деятельности.

 

Список литературы:

  1. Никоноров А. В. Ответственность за критические сбои, вызванные использованием искусственного интеллекта на технологических предприятиях // Экономика и парадигма нового времени. 2025. №4 (37). URL: https://cyberleninka.ru/article/n/otvetstvennost-za-kriticheskie-sboi-vyzvannye-ispolzovaniem-iskusstvennogo-intellekta-na-tehnologicheskih-predpriyatiyah (дата обращения: 18.02.2026).
  2. Гражданский кодекс Российской Федерации (часть вторая) от 26.01.1996 № 14-ФЗ (ред. от 01.04.2024) // Собрание законодательства РФ. - 1996. - № 5. -Ст. 410.
  3. Стратегия развития искусственного интеллекта в Российской Федерации до 2030 года. Утверждена распоряжением Правительства РФ от 10.10.2019 № 2129-р.
  4. Национальная программа «Искусственный интеллект». Утверждена 2023 г. [Электронный ресурс]. - Режим доступа: https://ai.gov.ru/ai/regulatory/ (дата обращения: 08.02.2026).
  5. Навигатор по нормативному регулированию ИИ. Федеральный центр по регулированию ИИ (ФЦПРИИ) [Электронный ресурс]. - Режим доступа: https:// навигатор.фцпр ии.рф/regulations (дата обращения: 08.02.2026).
  6. Смирнов И.Н. Правовое регулирование применения искусственного интеллекта в промышленности // Журнал российского права. - 2023. - № 7. -С. 48-58.
  7. Дьяков В.В., Мельникова А.Л. Ответственность за вред, причинённый ИИ: проблемы и подходы // Вестник гражданского права. - 2022. - Т. 22, № 3. -С. 102-119.
  8. Зорин Д.С. Проблемы квалификации источника повышенной опасности при использовании ИИ // Юридическая техника. - 2023. - № 4. - С. 64-73.