Телефон: 8-800-350-22-65
WhatsApp: 8-800-350-22-65
Telegram: sibac
Прием заявок круглосуточно
График работы офиса: с 9.00 до 18.00 Нск (5.00 - 14.00 Мск)

Статья опубликована в рамках: XCVIII Международной научно-практической конференции «Актуальные проблемы юриспруденции» (Россия, г. Новосибирск, 17 сентября 2025 г.)

Наука: Юриспруденция

Секция: Правовые основы государственной и муниципальной службы

Скачать книгу(-и): Сборник статей конференции

Библиографическое описание:
Гусейнова Л.Н. ЦИФРОВОЕ ГОСУДАРСТВО И ПРАВА ГРАЖДАН: ПРАВОВЫЕ РАМКИ МОДЕРНИЗАЦИИ ВЛАСТИ // Актуальные проблемы юриспруденции: сб. ст. по матер. XCVIII междунар. науч.-практ. конф. № 9(97). – Новосибирск: СибАК, 2025. – С. 32-41.
Проголосовать за статью
Дипломы участников
У данной статьи нет
дипломов

ЦИФРОВОЕ ГОСУДАРСТВО И ПРАВА ГРАЖДАН: ПРАВОВЫЕ РАМКИ МОДЕРНИЗАЦИИ ВЛАСТИ

Гусейнова Лейла Назим кызы

аспирант, Санкт-Петербургский государственный морской технический университет; главный специалист Отдела мониторинга, анализа и межведомственного взаимодействия Комитета по транспорту Правительства Санкт-Петербурга,

РФ, г. Санкт-Петербург

DIGITAL STATE AND CITIZENS' RIGHTS: LEGAL FRAMEWORK FOR MODERNIZATION OF GOVERNMENT

 

Leyla N. Guseinova

Postgraduate student, Saint-Petersburg State Marine Technical University; leading specialist of the Department of Monitoring, Analysis and Interdepartmental Interaction of the Committee on Transport of the Government of Saint-Petersburg;

Russia, St. Petersburg

 

АННОТАЦИЯ

Целью исследования является определение правовых рамок функционирования цифрового государства и выявление проблем защиты прав граждан в условиях автоматизированного государственного управления. Методами исследования выступили анализ нормативных правовых актов Российской Федерации, сравнительно–правовое сопоставление с зарубежным регулированием, прежде всего положениями Общего регламента по защите данных (GDPR), а также изучение доктринальных подходов отечественных и зарубежных исследователей. Результатом исследования стало установление того, что при наличии институциональных предпосылок для цифровизации публичной власти сохраняется процедурный вакуум в сфере автоматизированного принятия решений, ограничивающий реализацию конституционных прав граждан. Выводы сводятся к необходимости институционализации алгоритмической оценки воздействия (AIA) и внедрения концепции технологической надлежащей правовой процедуры, что позволит повысить прозрачность и подотчетность алгоритмических систем, согласовать интересы государства с фундаментальными правами личности и укрепить легитимность цифрового управления.

ABSTRACT

The purpose of the study is to determine the legal framework for the functioning of the digital state and to identify the problems of protecting citizens' rights in the context of automated public administration. The study methods include an analysis of the regulatory legal acts of the Russian Federation, a comparative legal analysis with foreign regulation, primarily the provisions of the General Data Protection Regulation (GDPR), as well as the study of the doctrinal approaches of domestic and foreign researchers. The study results in the establishment that, despite the existence of institutional prerequisites for the digitalization of public power, there is a procedural vacuum in the field of automated decision–making, which limits the implementation of citizens' constitutional rights. The conclusions boil down to the need to institutionalize algorithmic impact assessment (AIA) and implement the concept of technological due diligence, which will increase the transparency and accountability of algorithmic systems.

 

Ключевые слова: цифровое государство; автоматизированное принятие решений; персональные данные; алгоритмическая оценка воздействия; права граждан; правовое регулирование.

Keywords: digital state; automated decision–making; personal data; algorithmic impact assessment; citizens' rights; legal regulation.

 

В конце второго десятилетия XXI века цифровая трансформация государства утратила характер разрозненных инициатив, направленных исключительно на перевод традиционных бумажных сервисов в электронный формат, и приобрела значение самостоятельной институциональной архитектуры публичной власти. Цифровое государство следует рассматривать как комплексное явление, объединяющее в себе инфраструктуру данных, процедурную организацию управленческих процессов и новый массив прав и обязанностей, формирующихся на пересечении информационного права, административного процесса и конституционных гарантий. В российском правопорядке указанное опирается на ключевые положения Конституции Российской Федерации: неприкосновенность частной жизни и тайну коммуникаций (ст. 23), запрет на сбор и распространение сведений о частной жизни без согласия лица (ст. 24), а также свободу поиска, получения и распространения информации (ст. 29). Уже сама эта конституционная триада формулирует главный методологический вызов цифровой модернизации власти: каким образом возможно институционализировать использование данных и алгоритмических инструментов, сохранив при этом фундаментальные права и обеспечив гражданам надлежащие процессуальные гарантии в процессе обработки их цифровых следов.[6]

Правовое оформление цифрового государства начинается с нормативных актов общего характера. К ним относятся Федеральный закон № 149–ФЗ «Об информации, информационных технологиях и о защите информации» от 27 июля 2006 года, закрепляющий базовые определения и ключевые принципы регулирования информационных отношений; Федеральный закон от 09.02.2009 № 8–ФЗ «Об обеспечении доступа к информации о деятельности государственных органов и органов местного самоуправления», устанавливающий презумпцию открытости и обязательность представления сведений в сети Интернет; Федеральный закон от 27.07.2010 № 210–ФЗ «Об организации предоставления государственных и муниципальных услуг», который институционализировал электронные формы взаимодействия граждан и государства; а также Федеральный закон от 06.04.2011 № 63–ФЗ «Об электронной подписи», который определил юридическую значимость электронного документооборота. Указанные законы опираются на положения Стратегии развития информационного общества в Российской Федерации на 2017–2030 годы (Указ Президента РФ от 09.05.2017 № 203) и реализуются в рамках национальной программы «Цифровая экономика Российской Федерации». В совокупности эти нормативные акты создали институциональные и правовые условия для масштабного перехода управленческих процедур и сервисов в цифровую среду, одновременно выявив противоречия между задачами технологической эффективности и необходимостью сохранения гарантий прав граждан [3, с.95].

Второй уровень нормативного регулирования цифрового государства формируют ключевые подзаконные акты, обеспечивающие функционирование соответствующих институтов. Постановлением Правительства Российской Федерации от 28.11.2011 № 977 была создана Единая система идентификации и аутентификации (далее – ЕСИА) – базовый механизм подтверждения личности пользователей, без которого невозможно функционирование портала государственных услуг и осуществление межведомственного электронного взаимодействия. Постановление Правительства РФ от 01.11.2012 № 1119 установило требования к обеспечению безопасности персональных данных в информационных системах, закрепив уровни их защищенности и увязав проектирование государственных информационно–технологических решений с моделью угроз и обязательными мерами защиты. Указанные акты фактически образуют своего рода «техническую основу» электронного правительства, однако их проектирование исходило из представлений о классических информационных системах и не учитывало активное применение технологий машинного обучения при принятии юридически значимых решений.

Третьим важным направлением нормативного регулирования выступает правовое закрепление правил обработки персональных данных. Федеральный закон от 27.07.2006 № 152–ФЗ «О персональных данных» установил основные принципы обработки персональной информации и прямо запретил принятие решений, влекущих юридические последствия для граждан, «на основании исключительно автоматизированной обработки» без письменного согласия субъекта данных либо без специального федерального разрешения. Данный подход концептуально соотносится с европейской моделью, так, статья 22 Общего регламента по защите данных (далее – GDPR) закрепляет право лица «не подвергаться» полностью автоматизированным решениям, порождающим правовые либо сопоставимые по значению последствия, а наднациональные органы разъясняют пределы применения алгоритмических инструментов и профилирования. В то же время правовая доктрина отмечает, что так называемое «право на объяснение» конкретного алгоритмического решения в GDPR носит дискуссионный характер и не является прямым нормативным предписанием. Именно поэтому регуляторы делают акцент на предоставлении «значимой информации о логике» обработки и на обеспечении процедурных гарантий, а не на раскрытии исходного кода алгоритмов. Статья 16 Федерального закона от 27.07.2006 № 152–ФЗ «О персональных данных» по своей структуре задает сходные рамки, однако ее практическая реализация в административной деятельности государственных органов остается фрагментарной и недостаточно институционализированной [1, с.20].

В российской научной традиции последовательно фиксируется противоречие между концепцией «цифрового государства как сервиса» и необходимостью соблюдения правовых ограничений, вытекающих из конституционных гарантий. Например, И.Л. Бачило отмечала, что электронное государство следует рассматривать не как технологический проект, а как особую разновидность социального (сервисного) государства, в основе которого лежит обслуживание прав и законных интересов граждан. Именно поэтому предоставление цифровых услуг должно быть организовано в условиях прозрачности процедур и юридической определенности их содержания. В свою очередь А.И. Савельев, исследуя феномен больших данных, указывал на исчерпанность классической модели согласия как универсального основания обработки информации. По его мнению, эффективная защита персональных данных в условиях масштабного вторичного использования возможна лишь при внедрении риск–ориентированных механизмов регулирования, способных учитывать угрозы, присущие современным технологиям обработки информации. Сопоставление этих подходов позволяет сделать вывод о необходимости смещения акцента в правовом регулировании: от модели «согласия на все» к институционализации процедурных гарантий, обеспечивающих подотчетность алгоритмических систем и реальную защиту прав граждан [5, с.111].

В международной правовой и междисциплинарной литературе прослеживается аналогичная логика переосмысления последствий цифровизации публичного управления. Например, Д.К. Ситрон предложила концепцию «технологической надлежащей правовой процедуры», в рамках которой автоматизация административных функций предполагает внедрение процессуальных гарантий, эквивалентных тем, что обеспечиваются в традиционных формах управления. Эти гарантии должны сопровождать весь жизненный цикл системы – от стадии проектирования до возможности обжалования ее решений. В свою очередь Дж. Кролл и соавторы сформулировали исследовательскую и практическую повестку «подотчетных алгоритмов», связывая правовой контроль с развитием инструментов технического аудита, процедур траекторной верификации и институционализацией внешней проверки алгоритмических систем. Дискуссии вокруг «права на объяснение», инициированные С. Вахтер, Б. Миттельштадтом и Л. Флориди, выявили ограниченность подхода, сводящего защиту прав лишь к раскрытию информации о логике алгоритмов. Авторы подчеркивают, что предоставление объяснения не способно заменить ключевых процессуальных гарантий – уведомления, права на вмешательство человека и доступа к эффективной апелляции. Для публичной власти это означает, что акцент должен быть сделан не столько на раскрытии исходного кода или полной прозрачности алгоритмов, сколько на создании обязательных процедур до внедрения и после применения, обеспечивающих справедливость и подотчетность в автоматизированном управлении [2, с.12].

В сфере позитивного права нормативные основы цифрового государства в России дополнялись тенденцией к суверенизации сетевой инфраструктуры. Федеральный закон от 01.05.2019 № 90–ФЗ внес изменения в Федеральный закон от 07.07.2003 № 126–ФЗ «О связи» и в Федеральный закон от 27.07.2006 №149–ФЗ «Об информации, информационных технологиях и о защите информации», закрепив централизованные механизмы управления сетевым трафиком и использование технических средств для противодействия потенциальным угрозам. Одновременно так называемый «пакет Яровой» (Федеральный закон от 06.07.2016 № 374–ФЗ «О внесении изменений в Федеральный закон «О противодействии терроризму» и отдельные законодательные акты Российской Федерации в части установления дополнительных мер противодействия терроризму и обеспечения общественной безопасности») существенно расширил обязанности операторов связи по хранению данных о трафике и обеспечению доступа к ним уполномоченных государственных органов. Эти меры укрепили устойчивость инфраструктуры и усилили контроль со стороны государства, однако одновременно породили повышенные риски для сохранения тайны коммуникаций и поставили вопрос о соразмерности вмешательства в частную жизнь. Проблема недостаточности процессуальных гарантий в условиях широких полномочий государства уже была зафиксирована в решении Большой палаты Европейского суда по правам человека по делу «Роман Захаров против России» от 2015 года, где было признано, что действовавшие механизмы не обеспечивают эффективной защиты от произвольного перехвата и хранения сообщений. Данный вывод применим и к современным цифровым механизмам управления, предполагающим сбор и обработку значительных массивов данных без надлежащих процедурных ограничителей и фильтров.

В условиях стремительной цифровизации публичного управления все более отчетливо проявляется ключевая проблема модернизации власти – отсутствие достаточной процедурной регламентации автоматизированного государственного принятия решений (далее – ADM). Статья 16 Федерального закона от 27.07.2006 № 152–ФЗ «О персональных данных» закрепляет материальный запрет на принятие решений «исключительно на основании автоматизированной обработки» без специального федерального основания или согласия субъекта данных.[7] Однако данная норма не предусматривает практических инструментов управления рисками, не содержит требований о создании публичного реестра алгоритмических систем, не устанавливает процедуры оценки воздействия до внедрения и не фиксирует единых стандартов объяснимости или обязательного человеческого вмешательства.

В реальной административной практике это приводит к тому, что государственные органы получают возможность внедрять скоринговые и классификационные алгоритмы в таких сферах, как предоставление льгот, назначение субсидий, контрольная и надзорная деятельность, без формирования сопутствующих процессуальных гарантий. В результате гражданин сталкивается с отказом «по итогам обработки», не имея ни доступа к пониманию логики алгоритмического вывода, ни действенных механизмов его оспаривания.

Международные руководящие документы и научная литература свидетельствуют о том, что в подобных условиях не формируется полноценная «технологическая надлежащая правовая процедура». Соответственно, провозглашенное право на частную жизнь и на эффективные средства правовой защиты, включая доступ к информации о процессе принятия решений, остается декларативным и не подкрепляется адекватными юридическими механизмами его реализации.

В научной и прикладной литературе в качестве одного из наиболее перспективных направлений решения выявленной проблемы рассматривается институционализация обязательной алгоритмической оценки воздействия (далее – AIA) в сочетании с концепцией технологической надлежащей правовой процедуры (technologicaldueprocess). В качестве примера может служить канадская Директива о принятии решений на основе алгоритмов 2019 года, сопровождаемая специализированным инструментом AIA. Согласно данной модели, до ввода алгоритмической системы в эксплуатацию ведомство обязано заполнить детализированную анкету рисков, определить уровень потенциального воздействия, принять минимально необходимые меры по обеспечению прозрачности и подотчетности, опубликовать информацию о системе в открытом доступе, а также гарантировать наличие процедур обжалования. Такая конструкция позволяет встроить процессуальные гарантии в сам жизненный цикл систем автоматизированного принятия решений и тем самым обеспечивает реализацию прав граждан на уведомление, доступное объяснение результатов обработки и возможность человеческого вмешательства [4, с.146].

Российское законодательство уже располагает институциональным инструментарием, который может быть использован для внедрения подобной практики. Федеральный закон от 31.07.2020 № 258–ФЗ «Об экспериментальных правовых режимах в сфере цифровых инноваций» закрепляет механизм так называемых «регуляторных песочниц». Данный правовой институт способен служить процедурной основой для апробации алгоритмической оценки воздействия и формирования отраслевых стандартов ее применения, в том числе в сфере социальной политики, здравоохранения, а также в контрольно–надзорной деятельности.

Институционализация AIA и концепции технологической надлежащей правовой процедуры может быть осуществлена без кардинального изменения сложившейся системы нормативных актов. Например, внесение изменений в Федеральный закон от 27.07.2010 № 210–ФЗ «Об организации предоставления государственных и муниципальных услуг» позволило бы закрепить легальное понятие «государственной алгоритмической системы принятия решений», предусмотреть требования к ее паспорту и обязательному публичному реестру, а также установить обязанность государственных органов публиковать «значимую информацию о логике» функционирования системы и ее ключевых метриках качества. Одновременно необходимо закрепить гарантии для заявителя, включая право на пересмотр решения с участием человека и право на получение разъяснений относительно возможных ошибок в обработке данных.

Корректировка статьи 16 Федерального закона от 27.07.2006 № 152–ФЗ «О персональных данных» могла бы трансформировать действующий запрет на «исключительно автоматизированные» решения в режим «по умолчанию», при котором допускаются лишь строго ограниченные исключения, сопровождаемые обязательной процедурой AIA. Постановление Правительства РФ от 01.112012 №1119 «Об утверждении требований к защите персональных данных при их обработке в информационных системах персональных данных», в свою очередь, может быть дополнено требованиями к управлению алгоритмическими моделями, обязательному журналированию выводов, а также к созданию процедурных механизмов для их обжалования.

Подобный подход соответствует выводам Д.К. Ситрон о необходимости закрепления процессуальных гарантий в самих алгоритмических процедурах, соотносится с повесткой «подотчетных алгоритмов», предложенной

Дж. Кроллом и соавторами, и учитывает скепсис С. Вахтер, Б. Миттельштадта и Л. Флориди относительно самодостаточности «права на объяснение». Именно процессуальные механизмы, а не формализованное раскрытие логики алгоритмов, обеспечивают гражданам реальные возможности защиты своих прав в условиях цифрового государственного управления.

Следует подчеркнуть, что AIA и технологическая надлежащая правовая процедура не подменяют материально–правовые гарантии, а обеспечивают их систематизацию и структурированное применение. В российских условиях такая модель позволит согласовать конституционные права на неприкосновенность частной жизни и на доступ к информации с функционированием инфраструктуры ЕСИА и Единого портала государственных услуг (далее – ЕПГУ). Указанное будет означать обязанность государственных органов заранее проектировать механизмы уведомления и апелляции, а для гражданина – возможность четко видеть, каким образом и на каком этапе алгоритм повлиял на результат рассмотрения его дела.

С технической точки зрения данный подход реализуется посредством обязательного событийного журналирования и сохранения так называемых «пояснительных артефактов» для каждого автоматизированного решения. Такие меры открывают возможность проведения внешнего аудита, включая как внутренние проверки, так и контроль со стороны уполномоченного органа по защите персональных данных.

Наличие публичного реестра систем автоматизированного принятия решений, в сочетании с процедурной увязкой данных механизмов с институтом обжалования, предусмотренным Федеральным законом от 02.05.2006 № 59–ФЗ «О порядке рассмотрения обращений граждан Российской Федерации», фактически создает «мост» между цифровыми алгоритмическими процедурами и традиционной моделью административного правосудия.

Предложенная модель одновременно учитывает и так называемый «суверенный» вектор регулирования. Даже при сохранении централизованного управления сетевым трафиком и возложении на операторов связи дополнительных обязанностей, институционализация процессуальных фильтров позволяет минимизировать риск несоразмерного вмешательства в частную жизнь и укрепить легитимность принимаемых решений. Введение обязательной алгоритмической оценки воздействия, публичного реестра автоматизированных систем и процедурных каналов для апелляции не исключает задач обеспечения государственной безопасности, но переводит их реализацию в русло правового государства. В такой модели каждая цифровая процедура интегрируется с правом на эффективное средство правовой защиты, что обеспечивает баланс между интересами государства и фундаментальными правами личности.

Таким образом, можно сделать вывод, что эффективная цифровая модернизация государственного управления невозможна без формирования процедурной основы, обеспечивающей баланс между технологической эффективностью и защитой фундаментальных прав граждан. Институционализация AIA и концепции технологической надлежащей правовой процедуры позволяет встроить процессуальные гарантии в жизненный цикл автоматизированных систем принятия решений. Это, в свою очередь, способствует синхронизации конституционных прав на неприкосновенность частной жизни и доступ к информации с современными цифровыми инфраструктурами, повышает уровень прозрачности и подотчетности алгоритмических инструментов и обеспечивает условия для эффективного обжалования решений. Внедрение данных механизмов не противоречит существующей нормативной системе, а напротив – дополняет ее, укрепляя легитимность цифрового государства и возвращая реализацию задач безопасности и управления в рамки правового государства.

 

Список литературы:

  1. Алексеева М.В. Трансформация государственного управления: к модели цифрового государства / М.В. Алексеева, С.В. Рыбак // Вестник юридического факультета Южного федерального университета. – 2025. – № 2. – С. 16–23.
  2. Варакина Л.А. Цифровизация в гражданских правоотношениях / Л.А. Варакина, К.С. Комарова // Либерально–демократические ценности. – 2021. – № 4. – С. 9–18.
  3. Камолов С.Г.  Цифровое государственное управление: учебник для вузов / С.Г. Камолов. – М.: Издательство Юрайт, 2024. – 336 с.
  4. Кукушка И.А. Теория и практика построения цифрового государства / И.А. Кукушка, Д.В. Сафонова // Тамбовские правовые чтения имени Ф.Н. Плевако: материалы v международной научно–практической конференции. – Тамбов: Издательский дом «Державинский», 2021. – С. 144–147.
  5. Мамитова Н.В. Цифровое государство в современном обществе: теория и практика / Н.В. Мамитова // Право.by. – 2022. – № 5(79). – С. 108–116.
  6. Конституция Российской Федерации (принята всенародным голосованием 12.12.1993 с изменениями, одобренными в ходе общероссийского голосования 01.07.2020) // СПС «Консультант плюс». –  URL: https://www.consultant.ru/document/cons_doc_LAW_28399/    (дата обращения: 18.09.2025).
  7. Федеральный закон от 27.07.2006 № 152–ФЗ «О персональных данных» // СПС «Консультант плюс». –  URL: https://www.consultant.ru/document/cons_doc_LAW_61801/ (дата обращения: 18.09.2025).
Проголосовать за статью
Дипломы участников
У данной статьи нет
дипломов

Оставить комментарий