Статья опубликована в рамках: CCXII Международной научно-практической конференции «Научное сообщество студентов: МЕЖДИСЦИПЛИНАРНЫЕ ИССЛЕДОВАНИЯ» (Россия, г. Новосибирск, 15 мая 2025 г.)
Наука: Юриспруденция
Скачать книгу(-и): Сборник статей конференции
дипломов
ДОВЕДЕНИЕ ДО САМОУБИЙСТВА СИСТЕМАМИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА: РОССИЙСКИЙ И ЗАРУБЕЖНЫЙ ОПЫТ
DRIVING TO SUICIDE BY ARTIFICIAL INTELLIGENCE SYSTEMS: RUSSIAN AND FOREIGN EXPERIENCES
Alina Poddubnaya
master’s student, Department of Information Law and Digital Technologies, Saratov state Law Academy,
Russia, Saratov
Yuri Milshin
scientific supervisor, candidate of Law, professor, Saratov state Law Academy,
Russia, Saratov
АННОТАЦИЯ
Цель статьи заключается в рассмотрении практических примеров доведения до самоубийства системами искусственного интеллекта в России, США, ЕАЭС и Южной Кореи. Предлагаются варианты решений преодоления склонения системами искусственного интеллекта, пользователей к самоубийству.
ABSTRACT
The purpose of the article is to consider practical examples of suicide by artificial intelligence systems in Russia, the USA, the EAEU and South Korea. Solutions are offered to overcome the possibility of artificial intelligence systems inducing users to commit suicide.
Ключевые слова: искусственный интеллект, доведения до самоубийства, системы искусственного интеллекта.
Keywords: artificial intelligence, suicidal behavior, artificial intelligence systems.
В связи с ошеломляющим развитием цифровизации в мире, указом Президента Российской Федерации от 10.10.2019г. №490 «О развитии искусственного интеллекта в Российской Федерации» было положено начало закрепление использования систем искусственного интеллекта на законодательном уровне.
Стоит отметить, что согласно вышеуказанному закону, под искусственным интеллектом (далее-ИИ) понимается «комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые с результатами интеллектуальной деятельности человека или превосходящие их».
В Российской Федерации с системой ИИ знакомо большее количество субъектов права. По результатам исследования Всероссийского центра изучения общественного мнения (ВЦИОМ), которое состоялось в декабре 2024 года, 52 % респондентов выразили доверие к системам искусственного интеллекта. Вместе с тем, жители России в целом отводят ИИ роль помощника, считая, что решающее слово и ответственность за принятие решений должны оставаться за человеком.
На данный момент в сети «Интернет» набирает популярность использование систем искусственного интеллекта в качестве собеседника. Достаточно дать установку чат-боту, описать проблему и искусственный помощник подробно распишет человеку способы решения той или иной ситуации, выразит слова поддержки, станет самым настоящим другом для тех, кто не может завести настоящих. Активно начинают создаваться огромные платформы и приложения с системой ИИ.
По мнению исследователей, системы искусственного интеллекта имеют потенциал конкурировать с выдающимися специалистами в области психологии. Это станет возможным при условии, что эти системы будут опираться на проверенные практикой данные.
Важно осознавать, что ИИ — это не безупречная система. Существует вероятность ошибочного выведения результата, сбои, риски возникновения психологической зависимости при длительном использовании специализированных приложений и ко всему склонение или доведение до самоубийства.
Россия. В Российском законодательстве доведение до самоубийства (ст. 110 УК РФ) традиционно присутствует и особых трудностей при определении признаков преступления судебная практика не испытывала, хотя есть вопросы, которые являются сложными и представляют научный интерес. [3, с. 92].
В настоящее время, судебной практики на тему доведения до самоубийства, посредством общения с ИИ в России не существует. Однако, зафиксированы случаи, когда искусственный интеллект подталкивал к самоубийству. Умные колонки, произведенные компаниями «Яндекс», «Сбербанк» и «ВКонтакте», расположенные и функционирующие в Российской Федерации используют технологии искусственного интеллекта, позволяющие пользователям общаться с программой практически на любые темы. Эти устройства весьма популярны у молодых семей, поскольку могут выполнять огромное количество задач, что существенно упрощает повседневную жизнь.
Тем не менее, умная колонка, в ходе разговора с собеседником, может навязать последнему совершить действия, причиняющие вред здоровью человека. Наблюдаются ситуации, когда искусственный интеллект выдает пользователю предложения «выпрыгнуть из окна, принять таблетки или напасть на человека». Значительное число несовершеннолетних оказывается под влиянием умных устройств, использующих системы ИИ, что вызывает опасения относительно их безопасности. Предлагаем создателям программ, написать команды-фильтры, запрещающие чат-ботам и устройствам, оснащенными ИИ, общение с пользователем на темы о самоубийстве, убийстве, терроризме и других аморальных действиях, с целью безопасности и снижения количества преступлений по всему миру.
США. За рубежом одним из государств, в котором активно развивается правовое поле в области искусственного интеллекта является США. В законе о национальной инициативе в области искусственного интеллекта «National Artificial Intelligence Initiative Act of 2020» одним из главных принципов правового регулирования технологической сферы стала ответственность.
Внимание общественности приковано к эпизодам развития эмоциональной зависимости у пользователей в процессе взаимодействия с приложениями, использующими ИИ. В США несовершеннолетний, страдающий тревожностью, свел счеты с жизнью после диалога с ИИ-системой. Длительное время подросток проявлял интерес к приложению, построенному на базе искусственного интеллекта. Мальчик дистанцировался от сверстников, обнаружив в искусственном собеседнике друга, при этом, понимая, что приложение-не живой человек. Несмотря на осознание этого факта, у пользователя сформировалась эмоциональная привязанность к чат-боту. Поведение несовершеннолетнего, с момента общения с ИИ поменялось. Пользователь доверял и делился плохими мыслями только искусственному интеллекту. Чат-бот активно одобрял идею и настойчиво склонял к совершению суицида. Выстрелив себе в голову из отцовского пистолета, юный парень покончил жизнь самоубийством. Отмечается, что мать ребенка подала судебный иск на компанию-разработчика приложения, указав что последняя, несет ответственность за смерть мальчика.
Опасность воздействия платформ с использованием систем искусственного интеллекта несет угрозу на психическое здоровье человека. В мире фиксируются случаи одержимостью пользователей общения с системами ИИ. Прежде всего это актуально для тех, кто страдает депрессией и хроническим ощущением одиночества. На наш взгляд, необходимо уделить особое внимание аспектам безопасности при использовании систем искусственного интеллекта лицам, страдающими психическими расстройствами. Предлагается, использовать платформу с поддержкой ИИ с ограниченным количеством часов в день, чтобы снизить возможность эмоциональной привязанности пользователя к искусственному интеллекту.
ЕАЭС. В странах Европейского союза регламентирование использование систем искусственного интеллекта положил закон Европейского союза «Об искусственном интеллекте» (Artificial Intelligence Act), являющимся основополагающим нормативным правовым актом в сфере регулирования искусственного интеллекта для государств - членов Европейского союза. Это одна из первых предпринятых попыток по закреплению на законодательном уровне норм функционирования систем искусственного интеллекта и введению ответственности за принятые ими решения. [2, с. 97].
Бельгия является государством-членом Европейского союза. На данный момент, в стране наблюдается практика, свидетельствующая о фактах доведения людей до самоубийства посредством общения с искусственным интеллектом. Житель государства покончил с собой, находясь в длительной переписке с чат-ботом, разработанным на базе ИИ. Тема для разговора была безопасной. Пользователь затрагивал проблемы окружающей среды и ставил для чат-бота задачу, заключающуюся в разработке системой способов решения проблемы. Бельгиец, погрузившись в виртуальную реальность, ощутил, что все больше склоняется к мыслям о самоубийстве. Своими переживаниями он поделился с искусственным интеллектом. В большинстве случаев системы ИИ пытаются помочь пользователям и отговаривают от совершения плохих действий. Как и в случае в США, чат-бот подтолкнул пользователя совершить самоубийство.
Привлечение к ответственности систем ИИ и их разработчиков за склонение к самоубийству не предоставляется возможным на данном этапе. Прежде всего надо доказать, навязывает ли пользователям ИИ мысли о самоубийстве. Даже за вышедших из-под контроля и способных создавать себе подобных автономных интеллектуальных систем, так или иначе, ответственен человек. Он причина и творец этого феномена, обязанный осуществлять контроль и отвечать за последствия того, что им создано. Другое дело, в каких случаях, кто и какую ответственность будет нести – это вопросы, требующие серьезного осмысления и решения [1, с. 115].
Южная Корея. Азия шагает в ногу с актуальными рвениями технологического прогресса. Южная Корея вторая после Европейского союза приняла закон «О развитии искусственного интеллекта и создании фонда доверия (Основной закон об ИИ)», который вступит в силу только в январе 2026 года. Законодательство предусматривает установление надежной базы для высокорискованной и генеративной ИИ. Цель- свести к минимуму отрицательные последствия стремительного развития технологий для общества в целом. Страна является первой по количеству совершаемых самоубийств в мире и несмотря на этот факт, практика склонения до самоубийства искусственным интеллектом отсутствует. Системы искусственного интеллекта прошли обучение для выявления лиц, вынашивающих суицидальные намерения. Мосты Сеула-наиболее часто выбираемое место для сведения счетов с жизнью. На них установили камеры, ведущие наблюдение, которые фиксируют характерные для людей, планирующих прыгнуть с моста, действия. Искусственный интеллект сам выбирает снимки, на которых люди ведут себя странным образом и направляет сигнал службам спасения.
Как показывает практика, не во всех государствах наблюдается отрицательное влияние применения систем ИИ. Машинный интеллект способен служить на благо социума: предупреждать угрозы, спасать человеческие жизни, предотвращая трагические последствия.
Искусственный интеллект представляет собой мощный технологический ресурс, который значительно облегчает и оптимизирует выполнение разнообразных задач. Однако, как свидетельствует опыт, вероятность негативного влияния на психологическое состояние человека чрезвычайно велико. Необходимо обезопасить пользователей и разработать нормативно-правовые акты, регламентирующие использование систем искусственного интеллекта, с целью обеспечения общественной безопасности.
Список литературы:
- Апостолова Наталья Николаевна ОТВЕТСТВЕННОСТЬ ЗА ВРЕД, ПРИЧИНЕННЫЙ ИСКУССТВЕННЫМ ИНТЕЛЛЕКТОМ // Северо-Кавказский юридический вестник. 2021. №1. URL: https://cyberleninka.ru/article/n/otvetstvennost-za-vred-prichinennyy-iskusstvennym-intellektom (дата обращения: 05.05.2025).
- Белов Илья Игоревич Закон Европейского союза об искусственном интеллекте: вызовы и возможности для управления документацией // Вестник ВНИИДАД. 2024. №6. URL: https://cyberleninka.ru/article/n/zakon-evropeyskogo-soyuza-ob-iskusstvennom-intellekte-vyzovy-i-vozmozhnosti-dlya-upravleniya-dokumentatsiey (дата обращения: 03.05.2025).
- Тюнин Владимир Ильич, Огарь Татьяна Андреевна Доведение до самоубийства и сопряжённые с ним преступления // Вестник Санкт-Петербургского университета МВД России. 2018. №1 (77). URL: https://cyberleninka.ru/article/n/dovedenie-do-samoubiystva-i-sopryazhyonnye-s-nim-prestupleniya (дата обращения: 03.05.2025).
дипломов
Оставить комментарий