Статья опубликована в рамках: Научного журнала «Студенческий» № 5(343)
Рубрика журнала: Информационные технологии
Скачать книгу(-и): скачать журнал часть 1, скачать журнал часть 2, скачать журнал часть 3
ПРАВОВЫЕ АСПЕКТЫ ВНЕДРЕНИЯ ТЕХНОЛОГИЙ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В СФЕРЕ ГОСУДАРСТВЕННОГО УПРАВЛЕНИЯ РОССИЙСКОЙ ФЕДЕРАЦИИ
LEGAL ASPECTS OF THE INTRODUCTION OF ARTIFICIAL INTELLIGENCE TECHNOLOGIES IN THE FIELD OF PUBLIC ADMINISTRATION IN THE RUSSIAN FEDERATION
Ufimtseva Ekaterina Yurievna
Master's student of the Department of Law, State and Municipal Administration, Omsk State Pedagogical University,
Russia, Omsk
АННОТАЦИЯ
В статье проводится комплексный анализ правового регулирования применения ИИ-технологий в сфере государственного управления, описываются правовые риски, связанные с обеспечением прозрачности, подотчетности и защиты персональных данных при использовании ИИ в госуправлении. Целью работы является разработка комплексных предложений по совершенствованию законодательства РФ в сфере регулирования ИИ через последовательное решение трёх взаимосвязанных задач. Первая предполагает анализ действующей нормативной базы, включая федеральные законы и подзаконные акты, регулирующие использование интеллектуальных систем в государственном управлении. Вторая задача направлена на выявление системных правовых рисков, связанных с автоматизацией административных решений, на основе изучения судебной практики и экспертных позиций. Третья задача концентрируется на формулировании механизмов ответственности и этических стандартов, адаптированных к специфике российской правовой системы.
ABSTRACT
The article provides a comprehensive analysis of the legal regulation of the use of AI technologies in the field of public administration, describes the legal risks associated with ensuring transparency, accountability and protection of personal data when using AI in public administration. The aim of the work is to develop comprehensive proposals for improving the legislation of the Russian Federation in the field of AI regulation through the consistent solution of three interrelated tasks. The first involves an analysis of the current regulatory framework, including federal laws and regulations governing the use of intelligent systems in public administration. The second task is aimed at identifying systemic legal risks associated with the automation of administrative decisions based on the study of judicial practice and expert positions. The third task focuses on the formulation of responsibility mechanisms and ethical standards adapted to the specifics of the Russian legal system.
Ключевые слова: цифровизация, государственное управление, ИИ-система, технологии искусственного интеллекта, государственная программа, искусственный интеллект, государственная информационная система.
Keyword: digitalization, public administration, AI system, artificial intelligence technologies, government program, artificial intelligence, state information system.
Стратегическое внедрение технологий искусственного интеллекта в систему государственного управления Российской Федерации, закреплённое в национальных программах развития, требует формирования адекватной правовой инфраструктуры. Данная необходимость обусловлена стремительным развитием ИИ-решений, применяемых в административных процессах, от автоматизации рутинных операций до поддержки принятия стратегических решений. При этом ключевой задачей законодателя становится обеспечение баланса между технологическими инновациями и защитой конституционных прав граждан, включая право на справедливое рассмотрение обращений и защиту персональных данных. Формирование такой инфраструктуры должно учитывать, как текущие потребности цифровой трансформации, так и перспективные вызовы, связанные с усложнением алгоритмических систем.
Актуальность исследования определяется нарастающим противоречием между динамикой внедрения ИИ-технологий в государственные сервисы и фрагментарностью их правового регулирования. Особую остроту приобретают вопросы распределения ответственности за решения, принимаемые автономными системами, а также обеспечения прозрачности и объяснимости алгоритмов в контексте требований законодательства о персональных данных. Отсутствие чётких правовых механизмов создаёт риски для законности административных процедур, что может привести к нарушению принципа правовой определённости и снижению доверия граждан к цифровым инструментам государственного управления. Эти проблемы требуют системного анализа в условиях реализации Национальной стратегии развития искусственного интеллекта до 2030 года.
Целью работы является разработка комплексных предложений по совершенствованию законодательства РФ в сфере регулирования ИИ через последовательное решение трёх взаимосвязанных задач. Первая предполагает анализ действующей нормативной базы, включая федеральные законы и подзаконные акты, регулирующие использование интеллектуальных систем в государственном управлении. Вторая задача направлена на выявление системных правовых рисков, связанных с автоматизацией административных решений, на основе изучения судебной практики и экспертных позиций. Третья задача концентрируется на формулировании механизмов ответственности и этических стандартов, адаптированных к специфике российской правовой системы.
Научная новизна исследования заключается в разработке адаптивной правовой модели, интегрирующей международный опыт регулирования ИИ с национальными особенностями правоприменения. Предлагаемый подход позволяет минимизировать риски цифровой дискриминации за счёт внедрения алгоритмической аудиторской проверки и обеспечения легитимности автоматизированных государственных решений через механизмы их оспаривания. Модель предусматривает создание гибких регуляторных рамок, способных эволюционировать параллельно с технологическим прогрессом, что соответствует принципам «умного регулирования». Таким образом, работа вносит вклад в развитие доктрины цифрового административного права России.
1 ПРАВОВОЕ РЕГУЛИРОВАНИЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В ГОСУДАРСТВЕННОМ УПРАВЛЕНИИ
1.1. Анализ действующей нормативно-правовой базы Российской Федерации, регулирующей применение технологий искусственного интеллекта в государственном управлении
Правовые рамки использования технологий искусственного интеллекта в государственном управлении Российской Федерации формируются комплексом законодательных актов. Федеральный закон от 02.07.2021 № 123-ФЗ «Об экспериментальных правовых режимах в сфере цифровых инноваций» создаёт базис для тестирования ИИ-решений в публичном секторе. Концепция развития регулирования искусственного интеллекта и робототехники до 2024 года определяет стратегические направления цифровизации государственного управления. Национальная программа «Цифровая экономика» и Государственная программа «Информационное общество» закрепляют институциональные основы внедрения инновационных технологий в деятельность органов власти.
Специальные регуляторные механизмы детализируют порядок разработки и внедрения ИИ-систем в государственном управлении. Постановление Правительства РФ от 19.08.2021 № 1367 устанавливает требования к пилотным проектам применения искусственного интеллекта в федеральных органах исполнительной власти. Методические рекомендации Минэкономразвития России регламентируют процедуру оценки соответствия ИИ-решений критериям безопасности и эффективности. Приказ Минцифры России № 766 от 22.12.2021 утверждает стандарты сбора и обработки данных для обучения алгоритмов искусственного интеллекта, используемых в государственных информационных системах.
1.2. Международный опыт правового регулирования ИИ в сфере государственного управления: сравнительно-правовой аспект
Сравнительный анализ правовых подходов к регулированию ИИ в государственном управлении демонстрирует существенные различия между основными правовыми системами. Европейский союз делает акцент на защите прав граждан через разработку всеобъемлющих регуляторных рамок, примером чего служит «Акт об искусственном интеллекте» 2024 года, устанавливающий категории риска для ИИ-систем. В США преобладает отраслевой подход с акцентом на саморегулирование отрасли при сохранении базовых стандартов безопасности, что отражается в стратегических документах Белого дома по ИИ. Страны Азиатско-Тихоокеанского региона, включая Сингапур и Южную Корею, сочетают стимулирующее регулирование с созданием «песочниц» для тестирования инноваций в госсекторе.
1.3. Особенности применения ИИ в отдельных отраслях государственного управления РФ: правовые аспекты
Правовое регулирование применения технологий искусственного интеллекта в различных отраслях государственного управления Российской Федерации характеризуется дифференцированным подходом, учитывающим отраслевую специфику. В сфере здравоохранения использование ИИ-систем регламентируется Федеральным законом «Об основах охраны здоровья граждан», где особое внимание уделяется вопросам валидации медицинских алгоритмов и ответственности за диагностические решения. Правоохранительные органы при внедрении ИИ руководствуются положениями Федерального закона «О полиции», устанавливающего требования к прозрачности алгоритмов прогнозной аналитики и защите персональных данных. Социальные службы применяют ИИ-технологии в рамках Федерального закона «О государственной социальной помощи», акцентируя правовые аспекты автоматизированного назначения социальных выплат и предотвращения дискриминационных решений.
2. ПРАВОВЫЕ РИСКИ И ПРОБЕЛЫ ВНЕДРЕНИЯ ИИ
2.1. Проблемы определения правосубъектности и ответственности искусственного интеллекта в административных процессах
Отсутствие законодательного определения правосубъектности искусственного интеллекта порождает существенные правовые коллизии в административных правоотношениях. Действующее российское законодательство не содержит чётких критериев отнесения ИИ-систем к субъектам права, что создаёт неопределённость в правоприменительной практике. Данный пробел затрудняет квалификацию действий автоматизированных систем при принятии административных решений. Отсутствие правовой регламентации статуса ИИ препятствует формированию единообразного подхода к определению его роли в государственном управлении.
Распределение ответственности за решения, принятые с использованием ИИ-систем, представляет значительную сложность из-за отсутствия чётких правовых механизмов. Неопределённость возникает при разграничении ответственности между разработчиками алгоритмов, операторами систем и государственными органами, применяющими такие технологии. Особую проблему составляет установление вины при принятии ошибочных решений, когда невозможно однозначно определить вклад человеческого фактора и автономности работы алгоритма. Существующая правовая база не предусматривает специальных процедур доказывания причинно-следственных связей в подобных ситуациях.
2.2. Риски, связанные с обеспечением прозрачности, подотчетности и защиты персональных данных при использовании ИИ в госуправлении
Внедрение технологий искусственного интеллекта в государственное управление порождает комплексные риски нарушения базовых принципов правового государства. Основную проблему представляет непрозрачность алгоритмических решений, затрудняющая понимание логики принятия административных актов и формирующая предпосылки для дискриминационных практик. Недостаточная подотчетность государственных органов при использовании ИИ-систем создает правовые лакуны в вопросах распределения ответственности за ошибочные или противоправные решения. Особую актуальность приобретают риски несанкционированного доступа к персональным данным граждан, обрабатываемым в рамках цифровых платформ государственного управления.
2.3. Анализ судебной практики и экспертных оценок по вопросам применения ИИ в государственном управлении РФ
Анализ доступной судебной практики Российской Федерации демонстрирует ограниченное количество прецедентов, непосредственно связанных с применением технологий искусственного интеллекта в государственном управлении. Эксперты отмечают, что существующие кейсы преимущественно касаются вопросов оспаривания автоматизированных решений в сфере предоставления государственных услуг и налогового администрирования. Данная ситуация подтверждает ранее выявленные системные проблемы правового регулирования, включая отсутствие четких критериев обжалования решений, принятых с использованием ИИ-систем. Экспертное сообщество едино во мнении, что «судебная система РФ пока не выработала единообразного подхода к оценке правомерности использования ИИ в публично-правовой сфере».
3 СОВЕРШЕНСТВОВАНИЕ ЗАКОНОДАТЕЛЬСТВА О ПРИМЕНЕНИИ СИСТЕМ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА
3.1. Предложения по разработке и внедрению механизмов правовой ответственности за решения, принимаемые ИИ-системами
Ключевым аспектом совершенствования законодательства является чёткое определение субъектов ответственности при использовании ИИ-систем в государственном управлении. Требуется законодательное закрепление дифференциации ответственности между операторами систем, разработчиками алгоритмов и конечными пользователями принимаемых решений. Отсутствие нормативного разграничения их правового статуса создаёт риски правовой неопределённости при разрешении споров. «Также при внедрении ИИ в сферу принятия судебных решений непременно должен быть предусмотрен механизм оспаривания собранных при помощи ИИ доказательств и выносимых с помощью ИИ решений. Представляется крайне важным оставить человеку возможность контролировать и корректировать деятельность ИИ, особенно если речь идет о вынесении судебных решений [3, c. 41]».
Эффективным механизмом минимизации правовых рисков выступает внедрение гибридных моделей ответственности, сочетающих административно-правовые санкции и гражданско-правовые компенсационные процедуры. Такой подход позволяет обеспечить возмещение материального и морального вреда, причинённого решениями ИИ-систем, одновременно применяя меры публично-правового воздействия к виновным субъектам. Следует предусмотреть специальные основания ответственности, учитывающие особенности функционирования самообучающихся алгоритмов. Разработка соответствующих правовых механизмов требует учёта зарубежного опыта и адаптации к российской правовой системе.
3.2. Разработка этических стандартов и рекомендаций для использования ИИ в государственном управлении Российской Федерации
Формирование отраслевых этических принципов применения искусственного интеллекта в государственном управлении Российской Федерации требует учёта специфики публично-правовых отношений. Ключевым требованием выступает обеспечение прозрачности алгоритмов, позволяющей осуществлять внешний аудит принимаемых решений. Не менее важным аспектом является разработка механизмов предотвращения дискриминации, гарантирующих равное отношение ко всем субъектам административных правоотношений. Закрепление принципа сохранения контроля человека над ИИ-системами обеспечивает соблюдение баланса технологической эффективности и социальной ответственности.
3.3. Перспективы формирования комплексной правовой модели ИИ в сфере государственного управления РФ
Формирование комплексной правовой модели искусственного интеллекта в сфере государственного управления РФ требует поэтапного создания специализированной регуляторной базы. Данная база должна интегрировать технические стандарты разработки и внедрения ИИ-систем, управленческие процедуры их применения в административных процессах, а также механизмы общественного контроля за их функционированием. «Накопленный методологический потенциал исследования пределов принятия решений с использованием ИИ позволяет выделить три общих группы таких пределов: парадигмальные (связанные с природой права), аксиологические (связанные с формализованными ценностями) и прагматические (связанные с границами эффективности, определяемыми возможностями технологий ИИ или контекстом их применения) [1, c. 900]». Учёт указанных пределов обеспечит сбалансированность регулирования, сочетающую технологическое развитие с защитой публичных интересов.
Проведённое исследование подтверждает необходимость разработки интегрированной правовой модели, которая обеспечит баланс между инновационным потенциалом технологий искусственного интеллекта и защитой конституционных прав граждан. Анализ российского и международного регулирования выявил, что существующие нормы не в полной мере учитывают специфику применения ИИ в государственном управлении. Такая модель должна объединить принципы прозрачности, этической ответственности и механизмы подотчётности, что соответствует целям Национальной стратегии развития искусственного интеллекта до 2030 года.
Действующее российское законодательство демонстрирует фрагментарность и внутренние противоречия в регулировании ИИ-технологий, что осложняет их правоприменение в государственном управлении. Сравнительный анализ нормативных актов выявил отсутствие единой терминологической базы и чётких критериев отнесения систем к категории ИИ. Для устранения этих недостатков требуется систематизация законодательства через согласование федеральных законов с подзаконными актами и создание институциональной основы регулирования.
Ключевые правовые риски, связанные с внедрением ИИ в административные процессы, включают неопределённость субъекта ответственности за автоматизированные решения, недостаточную прозрачность алгоритмов и уязвимость обработки персональных данных. Эти проблемы, подтверждённые анализом судебной практики, создают системные угрозы законности государственного управления. Указанные риски требуют первоочередного нормативного реагирования для обеспечения баланса между технологическим прогрессом и защитой публичных интересов.
Предложенные меры по совершенствованию законодательства включают введение механизмов юридической ответственности за решения ИИ-систем, обязательный аудит алгоритмов и установление этических стандартов их использования. Формирование адаптивной регуляторной рамки должно сопровождаться созданием межведомственных координационных органов и механизмов общественного контроля. Реализация этих рекомендаций позволит минимизировать выявленные правовые риски и обеспечить эффективную интеграцию ИИ в систему государственного управления Российской Федерации.
Список литературы:
- Архипов В.В., Наумов В.Б., Смирнова К.М. Пределы принятия юридически значимых решений с использованием искусственного интеллекта // Вестник санкт-петербургского университета. Право. — 2021. — №4. — С. 882–906.
- Братановский С.Н. «Разумные машины» – в глазах правоведа // Государство и право. — 2019. — №1. — С. 201–204.
- Галкина Н.М., Кузнецова Д.В., Воробьев М.А. Зарубежный опыт применения искусственного интеллекта в судебной системе // Вестник ВГУ. Серия: Право. — 2023. — №3. — С. 35–44.
- Гусев А.В., Шарова Д.Е. Этические проблемы развития технологий искусственного интеллекта в здравоохранении // Общественное здоровье. — 2023. — №1. — С. 42–50.
- Добролюбова Е.И. Государственное управление по результатам в эпоху цифровой трансформации: обзор зарубежного опыта и перспективы для россии // Вопросы государственного и муниципального управления. — 2018. — №4. — С. 70–74.
- Ковалёв И.П. Правовое регулирование защиты личных прав человека при использовании технологий искусственного интеллекта // Вестник Московского университета имени С.Ю. Витте. Серия 2. Юридические науки. — 2024. — №1. — С. 12–16.
- Маковкин А.С. Этические проблемы применения искусственного интеллекта // Исторические, философские, политические и юридические науки, культурология и искусствоведение. Вопросы теории и практики. — 2015. — №2. — С. 130–132.
- Минин А.Я. Актуальные проблемы цифрового права. — Москва: МПГУ, 2021. — 132 с.
- Нагорных Р.В., Попова Д.В. Актуальные проблемы цифровизации деятельности органов исполнительной власти // Ius publicum et privatum: сетевой научно-практический журнал частного и публичного права. — 2023. — №2. — С. 59–64.
- Сурова Н.Ю., Косов М.Е. Искусственный интеллект. — Москва: ЮНИТИ-ДАНА, 2021. — 407 с.
- Тедеев А.А. Информационное (цифровое) право России. — Москва: Проспект, 2025. — 304 с.


Оставить комментарий