Телефон: 8-800-350-22-65
WhatsApp: 8-800-350-22-65
Telegram: sibac
Прием заявок круглосуточно
График работы офиса: с 9.00 до 18.00 Нск (5.00 - 14.00 Мск)

Статья опубликована в рамках: LXXXV Международной научно-практической конференции «Актуальные проблемы юриспруденции» (Россия, г. Новосибирск, 21 августа 2024 г.)

Наука: Юриспруденция

Секция: Гражданское, жилищное и семейное право

Скачать книгу(-и): Сборник статей конференции

Библиографическое описание:
Романова Н.В. ТРАНСФОРМАЦИЯ КОНЦЕПЦИИ ДЕЛИКТНОГО ОБЯЗАТЕЛЬСТВА С УЧЁТОМ СПЕЦИФИКИ УЧАСТИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В ГРАЖДАНСКО-ПРАВОВЫХ ОТНОШЕНИЯХ // Актуальные проблемы юриспруденции: сб. ст. по матер. LXXXV междунар. науч.-практ. конф. № 8(84). – Новосибирск: СибАК, 2024. – С. 50-59.
Проголосовать за статью
Дипломы участников
Диплом лауреата

ТРАНСФОРМАЦИЯ КОНЦЕПЦИИ ДЕЛИКТНОГО ОБЯЗАТЕЛЬСТВА С УЧЁТОМ СПЕЦИФИКИ УЧАСТИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В ГРАЖДАНСКО-ПРАВОВЫХ ОТНОШЕНИЯХ

Романова Наталья Владимировна

старший преподаватель кафедры гражданского и трудового права, филиал Российской академии народного хозяйства и государственной службы при Президенте Российской Федерации,

РФ, г. Санкт-Петербург

TRANSFORMATION OF THE CONCEPT OF DELICT OBLIGATION TAKING INTO ACCOUNT THE SPECIFICITY OF THE PARTICIPATION OF ARTIFICIAL INTELLIGENCE IN CIVIL LAW RELATIONS

 

Natalia Romanova

Senior Lecturer at the Department of Security Russian Presidential Academy of National Economy and Public Administration North-West Institute of Management,

Russia, Saint Petersburg

 

АННОТАЦИЯ

Облик современного мира и состояние обществ в начале 2020-х годов определяется, прежде всего, сочетанием трех важных явлений, а именно: технологическими изменениями, глобальным изменением климата и кризисом демократии. Темой данной статьи является взаимосвязь между одной из технологий, которая, помимо других технологий (например, нанотехнологий, биотехнологий, информационных технологий), фундаментально способствует глубокой трансформации обстановки и функционирования существующего мира, а именно искусственного интеллекта и права. Учитывая, что право является частью системы культуры, которая противостоит системе природы и, таким образом, представляет собой одну из ее подсистем, по мнению некоторых авторов, невозможно быть полностью безразличным к текущим последствиям, а также к будущим рискам, которые несет с собой интеграция искусственного интеллекта в общество, что, по их мнению, имело место в течение некоторого времени и в определенной степени. Дебаты о том, в какой степени право, как система способны идти в ногу с технологическим развитием, ведутся в основном в рамках устоявшейся академической области, известной как право и технология. В этой дискуссии отношения между правом и современными технологиями (включая искусственный интеллект) часто воспринимаются как гонка. Гонка, в которой закон изображается как гонщик, который всегда медленнее и отстает от технологий. Право оказывается в этой роли главным образом потому, что по отношению к технологиям оно не выполняет своего основного предназначения, которое заключается в обеспечении своевременных и достаточно эффективных мер по направлению развития технологий в русло, которое не будет представлять риска и угрозы стабильности и существованию общества.

ABSTRACT

The appearance of the modern world and the state of societies in the early 2020s is determined, first of all, by a combination of three important phenomena, namely: technological changes, global climate change and the crisis of democracy. The topic of this article is the relationship between one of the technologies that, among other technologies (e.g., nanotechnology, biotechnology, information technology), fundamentally contributes to the profound transformation of the environment and functioning of the existing world, namely artificial intelligence and law. Given that law is part of a cultural system that is opposed to the system of nature and thus represents one of its subsystems, according to some authors, it is impossible to be completely indifferent to the current consequences as well as the future risks that the integration of artificial intelligence into society brings with it, which they believe has been the case for some time and to a certain extent. The debate about the extent to which law, as a system, is able to keep pace with technological developments, takes place mainly within the well-established academic field known as law and technology. In this debate, the relationship between law and modern technologies (including artificial intelligence) is often perceived as a race. A race in which the law is portrayed as a racer who is always slower and behind technology. Law is in this role mainly because, in relation to technology, it does not fulfil its main purpose, which is to provide timely and sufficiently effective measures to direct the development of technology in a way that will not pose a risk or threat to the stability and existence of society.

 

Ключевые слова: искусственный интеллект; современные технологии и право; трансформация права; деликты и искусственный интеллект; освобождение от ответственности за ущерб.

Keywords: artificial intelligence; modern technologies and law; transformation of law; torts and artificial intelligence; Indemnification for damages.

 

Человек обладает способностью накапливать опыт и учиться на нем на протяжении всей своей жизни. Он может самостоятельно делать выводы, тренироваться и совершенствоваться. До недавнего времени именно эти возможности отличали человека от машин. Тем не менее, практически каждый день автор является свидетелем того, что машины часто обладают такими же (если не большими) возможностями, как и люди.

Термин «искусственный интеллект» используется для обозначения машин, которые демонстрируют разумное поведение.[1] Интеллектуальное поведение определяется как поведение, при котором субъект в первую очередь способен самостоятельно мыслить, учиться, принимать и обрабатывать окружающую информацию. Некоторые машины больше не нуждаются в инструкциях от людей, так как информации из окружающей среды, которую они получают и оценивают, им достаточно. Если машины должны действовать независимо от участия человека, необходимо учитывать ответственность за причиняемый ими ущерб.

Действующее законодательство страдает от недостатка в области ответственности за «искусственный интеллект». Роль права заключается в том, чтобы обеспечить достижение справедливости во всех отношениях, а, следовательно, и с учетом прогресса технологий. Обязанность возмещения ущерба регулируется Гражданский кодекс Российской Федерации, в действующей редакции (далее – «Гражданский кодекс РФ»).

Во всех правовых системах, основанных на традиции римского континентального права, предусматривается установление отношений ответственности за ущерб в форме нарушения общей превентивной обязанности.

В этой связи можно отметить, что несоблюдение и нарушение этой общей превентивной обязанности может привести к ущербу. Слово «может» используется здесь намеренно, поскольку простое нарушение общей превентивной обязанности не обязательно означает, что будет причинен вред.

Можно также указать, что конкретные виды отношений ответственности основываются, в зависимости от их конструкции, либо на концепции ретроспективной ответственности, либо на концепции ответственности с активной перспективой.

Основная ответственность за ущерб изложена в статье 1064 Гражданского кодекса Российской федерации, в форме общего стандарта. [2]

Ответственность за причиненный вред наступает у субъекта гражданско-правового отношения, если он причинил вред имуществу, здоровью или окружающей среде. Это общее положение само по себе закрепляет обязанность по предотвращению вреда в гражданско-правовых отношениях.

Теоретически необходимые предпосылки наступления ответственности за вред в гражданском праве были определены следующим образом: 1) нарушение юридического обязательства (фактическое противоправное деяние) или предусмотренное законом событие с указанием ущерба, 2) сам ущерб, 3) причинно-следственная связь (причинно-следственная связь), а также, как правило, вина (в случае субъективной ответственности за ущерб).

В случае ущерба, причинённого искусственным интеллектом, доказать вину может быть проблематично. [12, с.96-107]

Лицо, не обладающее способностью совершить правонарушение, т.е. способностью осознавать или контролировать противоправность своего поведения, не может действовать виновно.

«Искусственный интеллект» не является субъектом права и поэтому не может нести персональную ответственность за причинённый ущерб. [7] Машины являются вещами, и ущерб, причиняемый вещью, должен быть полностью урегулирован законодательством Российской Федерации.

Возникает вопрос о том, не опрометчиво ли не включать производителей вещей, в круг лиц, ответственных за причинение вреда, вещами, обладающими «искусственным интеллектом» [6, с.63-72]

В настоящее время производители освобождаются от ответственности посредством отказа от ответственности. Это означает, что при покупке машины производитель снимает с себя ответственность за ущерб, причинённый машиной, и эту ответственность берет на себя лицо, которое будет контролировать машину, управлять ею или владелец вещи, что чаще всего случается.

Бывают случаи, когда противоправное поведение допускается. Такое разрешение дается здесь по той причине, что они защищают более высокие концептуальные ценности, чем предотвращение ущерба и вреда как такового. Это обстоятельства, исключающие противоправность.

Обстоятельством, исключающим противоправность, является регулируемая законом ситуация, которая по соображениям защиты собственности, жизни или здоровья позволяет или даже предписывает субъекту вести себя таким образом, который в противном случае мог бы повлечь за собой противоправное поведение. Традиционно к обстоятельствам, исключающим противоправность, относятся: 1) выполнение юридического обязательства, 2) осуществление субъективного права, 3) самопомощь, 4) действия в целях необходимой обороны, 5) действия в крайней необходимости, 6) согласие пострадавшей стороны, 7) допустимый риск, 8) санкционированное применение оружия.

С точки зрения изменения концепции деликтного обязательства с учётом специфики участия искусственного интеллекта в гражданско-правовых отношениях стоит рассмотреть еще две категории, исключающие незаконность: 9) ошибка в функционировании или функционале, и 10) ошибка в результате. О них и хотелось бы порассуждать подробнее в данной статье.

В случае этих новых категорий речь идет не только об их собственных обстоятельствах, исключающих противоправность в том же свете, что и в случае прекращения ответственности, и, таким образом, отношения ответственности и обязанности по возмещению ущерба не были установлены. Речь пойдет только об установлении критериев, где, если отдельные предпосылки этих критериев будут соблюдены, они приведут к переносу ответственности с оператора автономной машины с искусственным интеллектом на производителя автономной машины с искусственным интеллектом. Основанием для переноса этой ответственности будет тот факт, что это уже будет ответственность за дефекты продукции. [9, с.29-54]

Таким образом, основания для ответственности за деликтную ситуацию будут установлены на основе объективного изучения самого продукта. Причинно-следственная связь в этом отношении будет определяться из состава программных настроек автономной машины с искусственным интеллектом. Следует отметить, что такие внутренние обстоятельства, исключающие противоправность, в традиционном понимании, которые влияют на действия лиц с   волей как таковой, не могут быть применены к автономным машинам с искусственным интеллектом, поскольку автономные машины с искусственным интеллектом не обладают волей.

Рассмотрим, какими же будут реальные «старые-новые» или «новые» обстоятельства, исключающие противоправность, которые смогут повлиять на отношения ответственности за ущерб, причиненный автономными машинами с искусственным интеллектом при действиях на внешний мир; как насчет вопроса о пропорциональности как таковой; каким образом такая концептуальная категория, отклоняющаяся от монистической правовой концепции с поляризацией к позитивной и негативной, должна быть включена в стандартные наборы автономных машин с искусственным интеллектом; как такая плюралистическая модель может быть на самом деле включена в набор норм и возможно ли это до сих пор. В современных реалиях это уже ни в коем случае не является воображаемым аспектом того, как можно было бы подойти к концепции пропорциональности как плюралистической концепции, когда право как набор стандартов и языки программирования, как наборы стандартов, основаны на дуализме двух ценностей, позитивных и негативных, и поэтому не могут прийти к точно измеренной пропорциональности индивидуальных прав и их правовых режимов.

Существует несколько возможных решений, которые позволят в полной мере соблюсти возможную соразмерность между собственными охраняемыми законом интересами, с одной стороны, и возможным предотвращением любого другого, гораздо более серьезного вреда здоровью, жизни или имуществу, с другой.

Что касается действующих правовых категорий обстоятельств, исключающих противоправность, и их собственного применения к возможному поведению автономных машин с искусственным интеллектом, то необходимо толковать и классифицировать следующее в отношении того, можно ли считать такое обстоятельство, исключающее незаконность, обстоятельством, исключающим противоправность, которое применимо в полной мере, или же необходимо дополнительно модифицировать его таким образом, чтобы оно соответствовало детерминированному заданию стандартного набора автономной машины с искусственным интеллектом.

Остановимся более подробно на «ошибках в функциональности или в работе».  Как упоминалось ранее, предстоит иметь дело с другими, совершенно новыми обстоятельствами, исключающими незаконность. Это при том, что в этом отношении речь не идет о перекладывании ответственности с одного человека на другого, речь идет о передаче ответственности оператором автономной машины с искусственным интеллектом производителю автономной машины с искусственным интеллектом, если будут соблюдены условия для такой передачи собственной ответственности.

Кроме того, третья сторона, например в лице страхового агента может покрыть ущерб пострадавшей стороне или пострадавшему лицу за ущерб, причиненный автономной машиной с искусственным интеллектом в случае травмы. В связи с этим необходимо, чтобы автономные машины с искусственным интеллектом имели заранее подготовленную категорию в правовой системе, что окажет существенное и содержательное влияние на обстоятельства и ситуации, связанные с автономными машинами с искусственным интеллектом.

Таким образом, формулировку такого обстоятельства, исключающего незаконность, можно представить себе следующим образом.

«Если действия автономной машины с искусственным интеллектом представляются противоречащими иным образом известным из внешнего мира фактам, то оператор такой автономной машины с искусственным интеллектом не несет ответственности за действия этой автономной машины с искусственным интеллектом при условии, что доказано, что из имеющейся на тот момент информации у этой автономной машины с искусственным интеллектом этого оператора было невозможно поступить иначе».

Возникает вопрос о том, для его вообще необходимо придумывать новую юридическую конструкция, которая бы исключала противозаконные действия для автономных машин с искусственным интеллектом.

Необходимо осознавать, что во внешнем мире могут возникнуть ситуации, которые невозможно полностью предугадать ни при каких разумных обстоятельствах, что вызовет механический или электрический сбой в автономной машине с искусственным интеллектом. Такая ошибка и станет причиной самого события и наступившего ущерба, или же именно такая ошибка будет причиной неправомерного поведения автономной машины с искусственным интеллектом. [8, с.7-18; 4, с.69-74]

По этой причине также необходимо снять с операторов груз ответственности за эксплуатацию автономных машин.

Таким образом, будет вполне уместно, если такая ответственность будет возложена на третье лицо, либо же такая ответственность будет передана производителю автономной машины с искусственным интеллектом в качестве альтернативы. [10]

Однако даже такой перенос ответственности за причинение вреда или деликт на производителя автономных машин с искусственным интеллектом приводит к тому, что благодаря этому обстоятельству, исключающему противоправность и перенос собственной ответственности на производителя, ошибка в расчете такой автономной машины с искусственным интеллектом может быть устранена самим производителем автономной машины с искусственным интеллектом. [4, с.69-74]

Поэтому такое представление данного обстоятельства, исключающее противоправность, вполне уместно, и законодателям было бы целесообразно в будущем предусмотреть такое обстоятельство, исключающее незаконность, и отразить этот факт в будущем законодательстве.

Что же касается предложенной категории «ошибка в результате», то с точки зрения его определения, ошибку в результате также придется рассматривать как обстоятельство, исключающее противоправность.

В этом отношении сама ошибка будет основываться на том, что производитель автономной машины с искусственным интеллектом сам сделал такую настройку автономной машины с искусственным интеллектом при производстве такой автономной машины с искусственным интеллектом, которая никогда не была способна оценить ситуацию во внешнем мире таким образом, чтобы не была способна причинить вред автономной машине с искусственным интеллектом самой,  или другой вещи или третьей стороне.

В частности, речь пойдет об относительном определении отдельных терминов, которые будут интерпретироваться автономной машиной с искусственным интеллектом. Эти понятия как логические операторы будут осмыслены автономной машиной с искусственным интеллектом, а следовательно, такая интерпретация входных данных всегда будет иметь неверный результат из-за логически неправильной настройки. [3; 11]

Таких ситуаций необходимо избегать, так как это будет дефект товара, который должен быть устранен производителем, также необходимо настаивать на том, что именно производитель такой автономной машины с искусственным интеллектом будет нести ответственность в этой связи за ущерб, который был бы нанесен автономной машине с искусственным интеллектом в результате этого факта, состоящего из ошибки.

Ключом к определению наступления таких обстоятельств, исключающим противоправность в виде неисправности или неисправности, а также ошибку в результате, будет именно способность и особенность автономной машины с искусственным интеллектом фиксировать в неизменном виде содержимое отдельных своих шагов на устройстве типа «черный ящик».

Такая последующая интерпретация таких данных из этих «черных ящиков» позволит прийти к выводу, что ответственность за событие или деликт будет нести производитель автономной машины с искусственным интеллектом, или же это будет оператор автономной машины с искусственным интеллектом.

Каким же образом должна меняться общая концепция деликтного обязательства с учётом специфики участия искусственного интеллекта в гражданско-правовых отношениях и как привлечь к ответственности за ущерб, причиненный работой автономной системы с искусственным интеллектом.

В связи с этим было рекомендовано, чтобы будущий законодатель продолжил движение в направлении деонтологического законодательства, используя активную перспективную концепцию ответственности. Использование данного понятия ответственности не является препятствием с точки зрения конституциональной доктрины и данный способ объективной ответственности оператора автономной системы с искусственным интеллектом позволит таким образом в полной мере защитить добросовестные права оператора автономной машины с искусственным интеллектом. [5, с.157-170]

Нынешние санкции в законодательстве очень узко определены и апеллируют к человеческому сознанию, но роботы не обладают сознанием. Наказание робота не может помешать ему сознательно избегать ошибок в будущем.

Поскольку ответственности искусственного интеллекта пока не существует, ученым необходимо рассмотреть различные варианты того, кто может быть привлечён к ответственности за ущерб, причинённый искусственным интеллектом.

Похоже, что современный мир ещё не готов к ответственности искусственного интеллекта. В конце концов, сама практика должна будет показать, какое решение является лучшим и справедливым.

 

Список литературы:

  1. Национальная стратегия развития искусственного интеллекта на период до 2030 года : утв. УказомПрезидента Российской Федерации от 10.10.2019 № 490. /URL: http://static.kremlin.ru/media/events/files/ru/AH4x6HgKWANwVtMOfPDhcbRpvd1HCCsv.pdf  (дата обращения 08.08.2024)
  2. "Гражданский кодекс Российской Федерации (часть вторая)" от 26.01.1996 N 14-ФЗ (ред. от 24.07.2023) (с изм. и доп., вступ. в силу с 12.09.2023) /URL: https://www.consultant.ru/document/cons_doc_LAW_9027/ (дата обращения 08.08.2024)
  3. Директива 2009/24/EC Европейского парламента и Совета от 23 апреля 2009 года о правовой защите компьютерных программ. Директива No 2006/115/EC Европейского парламента и Совета от 12 декабря 2006 года, Директива No 2006/116/EC Европейского парламента и Совета от 12 декабря 2006 года, Директива No 96/9/EC Европейского парламента и Совета от 11 марта 1996 года, Директива No 2001/29/EC Европейского парламента и Совета от 22 мая 2001 года, Директива No 2001/84/EC Европейского парламента и Совета от 27 сентября 2001 года и Директива Европейского парламента и Совета No 2001/9/EC от 27 сентября 2001 года. Постановление No 2004/48/EC от 29 апреля 2004 года. /URL: https://pd.rkn.gov.ru/docs/Direktiva_Evropejskogo_Parlamenta_i_Soveta_Evropejskogo_Sojuza_200258ES.pdf  (дата обращения 08.08.2024)
  4. Антонов А.А. Искусственный интеллект как источник повышенной опасности // Юрист. 2020. № 7. С. 69–74.
  5. Архипов В.В., Наумов В.Б. О некоторых вопросах теоретических оснований развития законодательства о робототехнике: аспекты воли и правосубъектности // Закон. 2017. № 5. С. 157–170.
  6. Ирискина Е.Н., Беляков К.О. Правовые аспекты гражданско-правовой ответственности за причинение вреда действиями робота как квазисубъекта гражданско-правовых отношений // Гуманитарная информатика. 2016. Вып. 10. С. 63–72.
  7. Морхат П.М. Правосубъектность искусственного интеллекта в сфере права интеллектуальной собственности: гражданско-правовые проблемы :дис. … д-ра юрид. наук. М., 2018. 257 с.
  8. Ручкина Г.Ф. Искусственный интеллект, роботы и объекты робототехники:  к вопросу о теории правового регулирования в Российской Федерации // Банковское право. 2020. № 1. С. 7–18.
  9. ТОМИШЕК, Ян. Какова идеальная модель ответственности для автономной системы? Ревю для юриспруденции и технологий. [Электронный ресурс]. 2018, No 18, с. 29-54. [цит. 2020-05-31]. В наличии с: /URL: https://journals.muni.cz/revue/article/view/10452  (дата обращения 08.08.2024)
  10. PALMERINI, Erica, Federico AZZARI, Fiorella BATTAGLIA, et al. Guidelines on Regulating Robotics. In: Www.robolaw.eu: Regulating Emerging Robotic Technologies in Europe: Robotics facing Law and Ethics [online]. Pisa, Italy: 1. ScuolaSuperioreSant Anna di StudiUniversitari e di Perfezionamento di Pisa (SSSA), 2014, 22.09.2014 [cit. 2020-03-29]. Dostupné z: http://www.robolaw.eu/RoboLaw_files/documents/robolaw_d6.2_guidelinesregulatingrobotics_20140922.pdf(дата обращения 08.08.2024)
  11. ТОМИШЕК Ян Программное обеспечение как вещь в режиме нового Гражданского кодекса. Ревю для юриспруденции и технологий. [Электронный ресурс]. 2014, No 9, с. 197-210. [цит. 2020-06-15]. Доступно с: https://journals.muni.cz/revue/article/view/5021 (дата обращения 08.08.2024)
  12. Спицын И.Н., Тарасов И.Н. использование искусственного интеллекта при отправлении правосудия: теоретические аспекты правовой регламентации (постановка проблемы) // Актуальные вопросы российского права. 2020. Т. 15, № 8. С. 96–107.
Удалить статью(вывести сообщение вместо статьи): 
Проголосовать за статью
Дипломы участников
Диплом лауреата

Оставить комментарий

Форма обратной связи о взаимодействии с сайтом
CAPTCHA
Этот вопрос задается для того, чтобы выяснить, являетесь ли Вы человеком или представляете из себя автоматическую спам-рассылку.