Статья опубликована в рамках: Научного журнала «Студенческий» № 16(228)
Рубрика журнала: Юриспруденция
Скачать книгу(-и): скачать журнал часть 1, скачать журнал часть 2, скачать журнал часть 3, скачать журнал часть 4, скачать журнал часть 5, скачать журнал часть 6, скачать журнал часть 7
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И ГРАЖДАНСКО-ПРАВОВАЯ ОТВЕТСТВЕННОСТЬ
ARTIFICIAL INTELLIGENCE AND CIVIL LIABILITY
Sofya Kovalenko
2nd year student of the IPSPD, Saratov State Law Academy,
Russia, Saratov
Yana Kovalenko
2nd year student of the IPSPD, Saratov State Law Academy,
Russia, Saratov
Yulia Boyarskaya
scientific supervisor, Candidate of Legal Sciences, Associate Professor of the Department of Civil Law, Saratov State Law Academy,
Russia, Saratov
АННОТАЦИЯ
Появление в Российской Федерации искусственного интеллекта, поставило вопрос о создании специального правового регулирования для искусственного интеллекта. Непредсказуемость действий ИИ приводит к возникновению проблем этического и технического характера, в том числе актуальным становятся вопрос гражданско-правовой ответственности за вред, причиненный искусственным интеллектом. Рассматриваются вопросы ответственности за вред, причиненный искусственным интеллектом, как с точки зрения действующего законодательства, так и с позиции необходимости его дальнейшего совершенствования.
ABSTRACT
The emergence of artificial intelligence in the Russian Federation raised the issue of creating a special legal regulation for artificial intelligence. The unpredictability of AI actions leads to ethical and technical problems, including the issue of civil liability for harm caused by artificial intelligence. The issues of liability for harm caused by artificial intelligence are considered, both from the point of view of the current legislation, and from the standpoint of the need for its further improvement.
Ключевые слова: искусственный интеллект, гражданско-правовая ответственность, робот, информационные технологии.
Keywords: artificial intelligence, civil liability, robot, information technology.
В настоящее время цифровые технологии применяются в разных видах деятельности: медицине, транспорте, образовании, охране общественного порядка, осуществлении правосудия, и т.д., что создаёт необходимость всестороннего правового регулирования порядка и последствий использования искусственного интеллекта. Так же, в настоящее время робототехнические устройства с искусственным интеллектом стали активно применяться для создания контента, который относят к объектам интеллектуальной собственности: художественные произведения, литературные и музыкальные композиции.
Искусственный интеллект этот совокупность технологических решений, позволяющих имитировать когнитивные функции человека и получать результаты, сопоставимые с интеллектуальной деятельностью человека. Отмечается, что искусственный интеллект включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение, сервисы по обработке данных и поиску решений. [1, с. 2701]
Таким образом, отличительным признаком искусственного интеллекта от человека является способность к самостоятельному творчеству. И.А. Филиповой выделяются виды искусственного интеллекта: ограниченный (слабый) искусственный интеллект (создается для решения конкретной задачи или небольшого круга задач); общий (сильный) искусственный интеллект (равнозначен человеческому и способен решать широкий круг задач); сверхинтеллект (превосходит уровень человеческого интеллекта в несколько раз). [2, c. 90] Искусственный интеллект может воплощаться в различных формах, что оказывает влияние на его правовой режим. Так, он может быть представлен в виде сложной компьютерной программы, либо киберфизического устройства, например, робота.
Между тем, по справедливому замечанию Н.Ф. Поповой, «на сегодняшний день в Российской Федерации отсутствует специальное законодательное регулирование использования роботов, объектов робототехники и искусственного интеллекта в области гражданских правоотношений, т.е. применяются действующие нормы гражданского права». [3, с. 69-73]
Автономность робототехнических комплексов, которая делает невозможным проводить полный контроль за ними со стороны операторов, предопределяет необходимость решения двух проблем: о безопасности таких систем для человека и об ответственности за вред, причиненный в результате их использования.
Различного рода ошибки при создании систем с искусственным интеллектом приводят к серьезным последствиям: самолет Boeing737 потерпел крушение из-за ошибочных показаний датчика и системы контроля полета, что привело к неожиданному уходу в пике и гибели 189 человек, находящихся на борту, в другом случае, беспилотный автомобиль сбил пешехода, которого заметил за несколько секунд до столкновения, но программа по неизвестным причинам решила не снижать скорость.[4]
Расширение применения технологий искусственного интеллекта в России приводит к увеличению вероятности причинения вреда. Так, в Екатеринбурге с должником больше месяца работал робот-коллектор, причем догадаться о его «нечеловеческой» сущности, по словам потерпевшего, было невозможно. Робот представлялся руководителем коллекторского агентства, задавал вопросы и рекомендовал погасить долги, которые были погашены несколько лет назад. После обращения в службу судебных приставов и проведения проверки, последовало обращение в суд, который оштрафовал агентство на 75 тыс. рублей. [5] Этот случай актуализировал проблему использования роботов-агентов в коллекторской деятельности и необходимость законодательного закрепления самого понятия «робот-коллектор». [6]
Если же мы признаем искусственный интеллект исключительно объектом права, даже в этом случае фигура ответственного за вред лица не выглядит однозначно. В различных исследованиях, посвященных робототехнике, высказываются мнения о возложении ответственности на:
- производителя робота или программного обеспечения для него; [7, с. 66-68]
- юридическое или физическое лицо - владельца устройства (программы); [8, с. 63-72]
- лицо, непосредственное управляющее роботом (оператора), в момент причинения вреда;
- тьютора (для самообучающихся систем).
Субъект ответственности должен определяться исходя из ряда критериев:
- относится ли устройство (например: роботы) к источникам повышенной опасности;
- в каких отношениях состоит пользователь технологий искусственного интеллекта с их владельцем.
В ст. 1079 Гражданского кодекса РФ2 (далее ГК РФ) дан примерный перечень источников повышенной опасности. Поэтому, чтобы определить, относится ли робототехническая система к источникам повышенной опасности, необходимо проанализировать сущностные признаки такого объекта.
Но не все такие устройства отвечают признаку повышенной опасности. В то же время применение роботов с высокой степенью автономности исключает полный контроль за ними, поэтому их вполне можно считать источниками повышенной опасности. Таким образом, такое разделение робототехнических систем на те, которые представляют собой источники повышенной опасности, и те, которые не представляют, позволит решить вопрос о субъекте и основаниях ответственности за вред, причиненный искусственным интеллектом. Так в первом случае, ответственность будет наступать по ст. 1079 ГК РФ, которая будет возлагать ответственность на владельца источника повышенной опасности даже при отсутствии его вины, [9, с. 112-119] во втором же случае, ответственность будет нести причинитель вреда на общих основаниях, т.е. только за вину, по ст. 1064 ГК РФ. При этом, если вред был причинен при исполнении трудовых или служебных обязанностей, субъектом ответственности будет юридическое лицо или гражданин-работодатель (ст. 1068 ГК РФ).
В результате можно прийти к выводу, что сегодня гражданское законодательство не предусматривает какой-либо специфики правового регулирования отношений, связанных с использованием устройств с искусственным интеллектом.
В результате можно прийти к выводу, что ответственность за вред, который был причинён искусственным интеллектом, может наступать в рамках уже существующего правового регулирования, но это не означает что не нужен новый подход в рассматриваемой области с учетом сложившихся реалий и потребностей правоприменительной практики. Нужно уже сейчас предусмотреть в действующем ГК РФ норму, которая бы содержала правила применения гражданско-правовой ответственности за новый вид специального деликта, а именно, возмещение вреда, причиненного искусственным интеллектом.
Список литературы:
- Филипова И.А. Правовое регулирование искусственного интеллекта: учебное пособие.– Нижний Новгород: Нижегородский госуниверситет, 2020. – 90 с.
- Попова Н.Ф. Основные направления развития правового регулирования использования искусственного интеллекта, роботов и объектов робототехники в сфере гражданских правоотношений // Современное право. 2019. N 10. С. 69-73
- Чем опасно внедрение технологий с искусственным интеллектом. Рядом с нами появились электронные личности // Российская газета. 2020. N 18(8072)
- Робот и долги. Суд оштрафовал коллекторов, которые изводили клиента звонками бота // Российская газета. 2020. N 13(8067)
- Терминатор напомнит о долге. В законе появятся правила использования роботов-коллекторов // Российская газета. 2020. N 218(8272).
- Мельничук М.А., Ченцова Д.В. Гражданско-правовая ответственность искусственного интеллекта // Закон и право. 2020. N 6. С. 66-68
- Ирискина Е.Н., Беляков К.О. Правовые аспекты гражданско- правовой ответственности за причинение вреда действиями Робота как квазисубъекта гражданско-правовых отношений // Гуманитарная информатика. 2016. N 10. С. 63-72
- Апостолова Н.Н. Ответственность за вред, причиненный искусственным интеллектом// Северо-Кавказский юридический вестник. 2021. N 1. С. 112-119
- Боярская Ю.Н. Цифровизация в сфере транспортных услуг (воздушные перевозки)// Евразийский юридический журнал. 2023. № 1. С. 126-128
Оставить комментарий