Телефон: 8-800-350-22-65
WhatsApp: 8-800-350-22-65
Telegram: sibac
Прием заявок круглосуточно
График работы офиса: с 9.00 до 18.00 Нск (5.00 - 14.00 Мск)

Статья опубликована в рамках: Научного журнала «Студенческий» № 23(319)

Рубрика журнала: Юриспруденция

Скачать книгу(-и): скачать журнал часть 1, скачать журнал часть 2, скачать журнал часть 3, скачать журнал часть 4, скачать журнал часть 5, скачать журнал часть 6

Библиографическое описание:
Льянова Х.Б. ОТВЕТСТВЕННОСТЬ ЗА УБЫТКИ, ПРИЧИНЕННЫЕ В РЕЗУЛЬТАТЕ ИСПОЛЬЗОВАНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА // Студенческий: электрон. научн. журн. 2025. № 23(319). URL: https://sibac.info/journal/student/320/381748 (дата обращения: 06.07.2025).

ОТВЕТСТВЕННОСТЬ ЗА УБЫТКИ, ПРИЧИНЕННЫЕ В РЕЗУЛЬТАТЕ ИСПОЛЬЗОВАНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

Льянова Хава Башировна

студент 4 курса, «Института Частного Права», Московский государственный юридический университет имени О. Е. Кутафина,

РФ, г. Москва

АННОТАЦИЯ

В статье рассматриваются актуальные проблемы гражданско-правовой ответственности за убытки, причинённые в результате использования технологий искусственного интеллекта. Анализируются существующие научные подходы к определению круга субъектов ответственности с учётом степени контроля над ИИ, его автономности и способности к обучению. Обосновывается необходимость гибкой и дифференцированной модели правового регулирования, основанной на принципах прозрачности, безопасности и профессиональной ответственности.

ABSTRACT

The article discusses the current problems of civil liability for losses caused as a result of the use of artificial intelligence technologies. The existing scientific approaches to determining the range of subjects of responsibility are analyzed, taking into account the degree of control over AI, its autonomy and learning ability. The necessity of a flexible and differentiated model of legal regulation based on the principles of transparency, safety and professional responsibility is substantiated.

 

Ключевые слова: искусственный интеллект, гражданско-правовая ответственность, убытки, контроль, разработчик, пользователь, обучение ИИ.

Keywords: artificial intelligence, civil liability, damages, control, developer, user, AI training.

 

Развитие технологий искусственного интеллекта (ИИ) поставило перед правовой наукой ряд фундаментальных вопросов, связанных с необходимостью переосмысления традиционных подходов к гражданско-правовой ответственности. В частности, особую актуальность приобрёл вопрос о том, кто должен нести ответственность за убытки, причинённые в результате использования ИИ-систем, отличающихся высокой степенью автономности и способностью к самообучению. Согласно общему принципу генерального деликта, зафиксированному в статье 1064 Гражданского кодекса Российской Федерации, «вред, причинённый личности или имуществу, подлежит возмещению лицом, его причинившим» [1]. Однако в условиях цифровой трансформации и внедрения ИИ в различные сферы человеческой деятельности идентификация такого лица зачастую вызывает затруднения, так как причинителем вреда выступает техническая система, лишённая правосубъектности.

С научной точки зрения, наиболее обоснованным критерием определения субъекта ответственности представляется степень контроля над системой искусственного интеллекта. На этом положении основывается значительная часть современных теоретических концепций. Так, целый ряд исследователей предлагает дифференцировать участников правоотношений по уровню их вовлечённости в жизненный цикл ИИ: «от разработчика, отвечающего за архитектуру системы, до пользователя, эксплуатирующего её на практике» [2, с. 64]. Подобный подход поддерживается как отечественными, так и зарубежными специалистами, включая авторов экспертных заключений Европейской комиссии.

В частности, предлагается выделять такие роли, как разработчик (creator, engineer), оператор (operator) и конечный пользователь (end-user), при этом устанавливая различия между frontend- и backend-операторами. Frontend-оператор взаимодействует с системой на пользовательском уровне, тогда как backend-оператор оказывает влияние на внутренние алгоритмы функционирования ИИ. В рамках данной классификации пользователь рассматривается как субъект, обладающий минимальной степенью контроля, а потому, как правило, не подлежащий гражданско-правовой ответственности, за исключением случаев, когда установлена его вина.

На особом месте в современных концепциях находится фигура «учителя» ИИ — лица, осуществляющего обучение системы. В работах нидерландских исследователей и российских авторов подчёркивается, что в случае с обучающимися или самообучающимися системами ИИ необходимо рассматривать не только изначального разработчика, но и специалиста, ответственного за последующую адаптацию и оптимизацию алгоритмов. При этом выдвигается принцип: чем выше степень автономности системы и продолжительность её обучения, тем выше должна быть ответственность «учителя». Данный подход имеет под собой прочную методологическую основу и учитывает как техническую специфику ИИ, так и юридическую необходимость фиксации ответственности на этапе принятия решений, повлекших вред.

Важно отметить, что в рамках действующего правового поля не существует чёткого и универсального перечня субъектов гражданско-правовой ответственности за вред, причинённый ИИ. Это обусловлено, в том числе, тем, что в научном обороте используются как правовые (например, правообладатель), так и неполноформализованные категории (например, оператор, тренер). Исследователи справедливо указывают на: «необходимость правового закрепления терминов и разграничения функциональных обязанностей различных субъектов, вовлечённых в создание, обучение, эксплуатацию и обслуживание ИИ-систем» [3, с. 113].

В подавляющем большинстве случаев установление вины является необходимым элементом для привлечения к гражданско-правовой ответственности. Следовательно, для того чтобы возложить такую ответственность на продавца, изготовителя или исполнителя, истцу необходимо подтвердить наличие всех элементов деликта. В частности, он должен представить доказательства, подтверждающие: наличие причинённого ущерба и его объём (п. 2 ст. 15 ГК РФ); наличие причинно-следственной связи между использованием технологии на базе искусственного интеллекта и наступившим вредом; а также установить, что ответчик является разработчиком, поставщиком такой технологии либо предоставлял услуги с её применением.

Поскольку вред, причинённый при использовании ИИ, подлежит возмещению на общих основаниях, ответчик вправе попытаться освободиться от ответственности, доказав отсутствие своей вины (п. 2 ст. 1064 ГК РФ). Однако при этом обязанность опровергнуть вину ложится на самого ответчика: согласно п. 12 Постановления Пленума ВС РФ от 23.06.2015 № 25, «вина в причинении вреда презюмируется до тех пор, пока не доказано иное» [4].

Хотя установление факта причинения ущерба, его размера (пусть даже ориентировочного) и наличия причинной связи, как правило, не вызывает существенных затруднений, выявление вины, особенно её степени, может оказаться крайне проблематичным. Наибольшую сложность представляет предоставленное ответчику право доказывать отсутствие его непосредственной вины в произошедшем, учитывая презумпцию виновности, действующую до момента её опровержения.

Следует признать, что в большинстве случаев продавец или исполнитель не обладает ни техническими знаниями, ни профессиональной компетенцией для выявления скрытых недостатков в продукции, основанной на ИИ-технологиях. Как правило, такие лица не участвуют в разработке самого программного обеспечения и полагаются на гарантии, предоставляемые поставщиками или производителями, которые сами могут быть лишь посредниками. Кроме того, технологии, основанные на ИИ, по своей природе не являются безупречными: они могут содержать непредвиденные ошибки, программные сбои или уязвимости, которые становятся заметными только после продолжительной эксплуатации, включая случаи киберугроз и внешнего вмешательства.

Показательным является решение Арбитражного суда города Москвы от 11 апреля 2024 года по делу № А40-88118/2023. В этом деле суд частично удовлетворил иск ЗАО «Киновидеообъединение „Крупный план“» к АО «Москва Медиа» о защите исключительных прав. Суд признал, что цветная версия фильма, созданная с использованием ИИ, представляет собой самостоятельный объект авторского права [5]. При этом система ИИ, обработавшая исходный материал, нарушила исключительные права авторов оригинала, что и стало основанием для возложения ответственности.

Таким образом, в условиях стремительного развития технологий искусственного интеллекта и их широкого внедрения в социально значимые сферы деятельности возникает объективная необходимость пересмотра устоявшихся подходов к гражданско-правовой ответственности. Ключевым критерием в определении ответственного субъекта, по общему мнению исследователей, выступает степень контроля над действиями ИИ-системы, в том числе в контексте её автономности и способности к самообучению. Однако на практике данный подход сталкивается с рядом проблем, включая сложность доказывания вины, правовую неопределённость статуса таких участников, как оператор или «учитель» ИИ, а также недостаточную правовую регламентацию распределения рисков. Принимая во внимание указанные обстоятельства, необходима разработка комплексной и гибкой модели правового регулирования, способной учитывать. как технические особенности функционирования ИИ, так и требования юридической определённости и справедливости. Это предполагает, в частности, правовое закрепление разграничения ролей субъектов на всех этапах жизненного цикла ИИ, а также внедрение механизмов сертификации, обязательного страхования и правового мониторинга в целях защиты интересов участников гражданского оборота и минимизации потенциальных убытков.

 

Список литературы:

  1. Гражданский кодекс Российской Федерации (часть вторая) от 26.01.1996 № 14-ФЗ (ред. от 13.12.2024) // Собрание законодательства РФ. 29.01.1996. № 5. Ст. 410.
  2. Ерахтина О. С., Попану Д. Г., Сарксян З. Ф. Субъекты гражданско-правовой ответственности за вред, причиненный в результате применения технологий искусственного интеллекта //Информационное общество. – 2022. – №. 2. – С. 63-72.
  3. Апостолова Н. Н. Ответственность за вред, причиненный искусственным интеллектом // Северо-Кавказский юридический вестник. – 2021. – №. 1. – С. 112-119.
  4. Постановление Пленума Верховного Суда РФ от 23.06.2015 № 25 «О применении судами некоторых положений раздела I части первой Гражданского кодекса Российской Федерации» // Бюллетень Верховного Суда РФ. № 8. август, 2015.
  5. Решение Арбитражного суда города Москвы от 11 апреля 2024 года по делу № А40-88118/2023 // Гарант. URL: https://www.garant.ru/products/ipo/prime/doc/410879620/?ysclid=m9tu6p105v36064087 (дата обращения: 23.04.2025).

Оставить комментарий