Телефон: 8-800-350-22-65
Напишите нам:
WhatsApp:
Telegram:
MAX:
Прием заявок круглосуточно
График работы офиса: с 9:00 до 21:00 Нск (с 5:00 до 19:00 Мск)

Статья опубликована в рамках: Научного журнала «Студенческий» № 8(346)

Рубрика журнала: Информационные технологии

Скачать книгу(-и): скачать журнал часть 1, скачать журнал часть 2, скачать журнал часть 3

Библиографическое описание:
Валеев Т.Н., Ястребов Д.С. ТИПЫ АТАК НА МЕТОД ФЕДЕРАТИВНОГО ОБУЧЕНИЯ И РЕШЕНИЯ ИБ // Студенческий: электрон. научн. журн. 2026. № 8(346). URL: https://sibac.info/journal/student/346/405179 (дата обращения: 31.03.2026).

ТИПЫ АТАК НА МЕТОД ФЕДЕРАТИВНОГО ОБУЧЕНИЯ И РЕШЕНИЯ ИБ

Валеев Тамерлан Назирович

студент, кафедра кибербезопасности и защиты информации, Кубанский государственный технологический университет,

РФ, г. Краснодар

Ястребов Данил Сергеевич

студент, кафедра кибербезопасности и защиты информации, Кубанский государственный технологический университет,

РФ, г. Краснодар

TYPES OF ATTACKS ON FEDERATE LEARNING AND INFORMATION SECURITY SOLUTIONS

 

Valeev Tamerlan Nazirovich

student, Department of Cybersecurity and Information Security, Kuban State Technological University,

Russia, Krasnodar

Yastrebov Danil Sergeevich

student, Department of Cybersecurity and Information Security, Kuban State Technological University,

Russia, Krasnodar

 

АННОТАЦИЯ

В данной статье представлены угрозы безопасности на такую модель машинного обучения как федеративное обучение, при котором глобальная модель получает только сами обновления без конфиденциальных данных. Рассмотрим основные аспекты данной технологии.

ABSTRACT

This article presents the security threats to federated learning, a machine learning model in which the global model receives only the updates themselves, without sensitive data. We'll explore the key aspects of this technology.

 

Ключевые слова: информационные технологии, федеративное обучение, модель федеративного обучения, модель угроз, информационная безопасность.

Keywords: information technology, federated learning, federated learning model, threat model, information security.

 

Одно из основных направлений на сегодняшний день в сфере информационных технологий является машинное обучение. Несмотря на это при обучении могут возникать трудности, которые могут быть связаны с тем, что данные для обучения модели распределены между участниками, где возникают определенные вызовы для специалистов ИБ.

Федеративное обучение представляет метод обучения с использованием распределенных между участниками данных, сохраняя при этом конфиденциальность. [3]

В данной статье будут рассмотрены различные типы федеративного обучения, вероятные угрозы безопасности данного методы, а также возможные методы и способы защиты информации.

Что такое федеративное обучение

Федеративное обучение – это метод машинного обучения модели (федеративного сервера), при котором данные для обучения распределены между множеством устройств или серверов. Также при данном обучении отсутствует необходимость передачи чувствительной информации в централизованное хранилище. [3]

Разница от централизованного машинного обучения заключается в том, что обучение работает непосредственно на устройствах, где генерируются и хранятся данные. Этот процесс обычно включает следующие стадии:

  1. Локальное обучение. Каждое устройство или клиент обучает локальную модель на своем собственном наборе данных.
  2. Агрегирование моделей. В результате локального обучения формируется обновление для центрального сервера, которые представляют собой параметры модели, отражающие то, чему научилась модель.
  3. Обновление глобальной модели. Центральный сервер агрегирует обновления модели, чтобы создать улучшенную глобальную модель.
  4. Распространение модели. Улучшенная глобальная модель в итоге рассылается обратно на устройства для повторения процесса в течении нескольких раундов. [3]

 

Рисунок 1. Концептуальная модель федеративного обучения с центральным сервером

 

Виды федеративного обучения

Используя различные виды федеративного обучения, появляется возможность решения множества задач обучения моделей ИИ, что позволяет экономить силы, избавляя от обязанности создания специальных датасетов для разных задач. В таблице 1 представлены различные виды обучения и возможные сферы применения. [5]

Таблица 1.

Виды федеративного обучения

Виды обучения

Описание

Примеры применения

Централизованное

Присутствует центральный сервер, ответственный за процесс обучения. Участники (клиенты) проводят обчение модели на собственных данных для отправления полученной модели обратно на сервер. Где эти модели обновляют глобальную модель, передаваемая обратно участникам

В здравоохранении, где больницы, находящиеся в любой точке мира, обучают модели на основе данных пациентов для улучшения модели прогнозирования заболеваний

Децентрализованное

Отсутствие центрального сервера, что устраняет проблему единой точки отказа. В подобном случае участники напрямую общаются друг с другом, делясь обновлениями и их агрегации

Сеть мобильных устройств, совместно обучающая модель без использования центрального сервера

Горизонтальное

Это такое обучение, при котором наборы данных разных участников совпадают, т.е. у них совпадают поля (ячейки) для обучения, и они непустые. Другими словами, одинаковая структура, но данные о разных объектах

Банковская система обучает модель обнаружения мошенничества на базе информации о транзакциях без обмена самих сведений о транзакциях

Вертикальное

Это такое обучение, при котором наборы данных разных участников не совпадают: выделены поля (ячейки) для обучения, которые могут быть пустыми. Другими словами, разные атрибуты для обучения об одинаковых объектах

Партнерство банка и розничной компании, где об одних и тех же объектах организациям требуются отличные друг от друга данные

Сквозное

Предполагает узкий круг участников, обладающие стабильными вычислительными ресурсами высокой производительности

Исследовательский проект, где каждая организация иммет собственный набор данных с целью сформировать прогностическую модель

На разных устройствах

Предполагает широкий круг участников, в котором задействованы различные устройства: смартфоны, IoT или периферийные устройства, которые характерны своей низкой мощностью и нестабильность подключения к сети Интернет

Обучение модели интеллектуального ввода текста. В подобной модели участники улучшают модель без отправки пользовательских данных

 

Модель угроз

По способу атаки на модель обучения выделяются внутренний и внешний нарушители.

Угроза внутренней атаки исходят от работников, сотрудников организаций, работающие в данных организациях. Целью атаки могут стать федеративные серверы, оборудование, компьютеры и т.д. Также атака может быть произведена на программное обеспечение.

Тогда как внешние атаки можно разделить на несколько типов, которые представлены в таблице 2. [2, 4, 10, 14]

Таблица 2.

Модель угроз внешнего нарушителя

Тип атаки

Описание

Одиночная

Суть одиночной атаки заключается в том, что вредоносный клиент с достаточной вероятностью может привести модель к тому, что она не сможет выполнить классификацию

Византийская

Суть данной атаки схожа с одиночной, отличием которой является тот факт, что клиент ведет себя произвольно, тем самым затрудняя определение подлинности модели

Атака Sybil

В подобной атаке злоумышленник владеет несколькими поддельными клиентами, когда цель нарушителя заключается в отправлении на сервер поврежденных параметров, что позволяет проводить более мощные атаки на объект

Получестная

В данной атаке злоумышленник пытается получить доступ к чувствительной информации честного клиента, при этом не нарушая протоколы сервера

Вредоносная

В отличии от получестной атаки вредоносная атака стремится получить чувствительную информацию преднамеренно отклоняясь от протокола системы, что также может привести к нанесению вреда архитектуре

Состязательная атака: Атака отравлением

Атака может быть произведена двумя способами. При помощи отравлении данных, которая позволяет некорректно обучить модель, чтобы снизить ее эффективность в реальном использовании. При помощи отравлении модели злоумышленник пытается повредить глобальную модель, оставить бэкдор

Состязательная атака: Атака уклонения

При данной атаке злоумышленник пытается подобрать такие входные данные, чтобы она выдала ему, например, чувствительную информацию

 

Решения ИБ для федеративного обучения

Рассмотрев возможные типы атак, следует рассмотреть возможные методы и способы решения для обеспечения информационной безопасности системы, которые представлены ниже.

Консенсусные протоколы основаны на достижении соглашения, что является истиной. Использование данного протокола подходит для децентрализованных структур. Данные протоколы могут использоваться для решения проблем, связанных с византийской атакой. [8]

Обфускация (или запутывание) данных делает их невосприимчивыми к атакам с отравлением. Основная идея которой заключается в шифровании, добавлении шумов в датасеты перед отправкой к клиенту, но стоит учитывать, что подобные данные должны быть качественными: полученные из надежных источников. [11]

Валидация полученных данных также позволяет избежать атак при условии, что организация лучше справляется с распознаванием масок. В данном случае специально обученный ИИ, который настроен на выявление нестандартных паттернов или закономерностей информации, предотвращает процесс атаки отсеиванием. [14]

Также следует отметить, что для противодействия состязательным атакам на стадии обучения применяется метод Adversarial Training, основная задача которой во время обучения модели генерировать примеры состязательных атак для повышения устойчивости модели к подобным атакам на стадиях эксплуатации.

Также эффективным методом является Ансамбль моделей, суть которой заключается в том, что при получении новых данных от участников проводится статистическое усреднение результатов нескольких моделей из-за чего злоумышленнику становится сложнее управлять данными для получения выгоды. [2]

Техника DropOut также способна повысить устойчивость системы за счет того, что обучается сразу несколько моделей, которые в результате за счет статистического анализа выявляет наименее эффективные нейроны и в последствии они отсеиваются. Из-за чего повышается работоспособность модели, повышается точность, а также понижается количество потребляемых ресурсов. [12, 16, 17]

Технология DROP (Distillation-based Reduction Of Poisoning) – система, которая была разработана для сокращения числа отравлений, основанная на трех мерах противодействия:

  1. Агломеративная кластеризация – мера, рассматривающая модели на основе их попарных евклидовых расстояний, в результате определяя отравленные модели и последующей кластеризации их.
  2. Мониторинг активности – мера, которая основывается на агломеративной кластеризации, за ее счет система ведет репутационные показатели для каждого участника, где участники с высоким подозрением меньше влияют на будущие обновление глобальной модели.
  3. «Выделение знаний» - мера, которая предназначена для нейтрализации наиболее опасных и скрытых атак. Причиной является то, что злоумышленник может проводить обновления системы, тонко кодируя и настраивая обновления безопасности, что система не способна отличить их от безопасных обновлений. Для того чтобы избавить модель от подобных ситуаций используются синтетические данные, сгенерированные GAN, обученным с помощью логистической регрессии. Данный процесс обеспечивает устойчивость к скрытым атакам и делает защиту независимой от обучающих конфигураций. [1, 18]

Таблица 3.

Смежная таблица Типы атак-Решения ИБ

 

Консенсусные протоколы

Обфускация

Валидация

Состязательная тренировка

Ансамбль моделей

DropOut

DROP

Одиночная

 

+

+

 

+

+

+

Византийская

+

 

 

 

 

 

+

Атака Sybil

 

 

+

 

 

 

+

Получестная

 

+

+

 

+

+

+

Вредоносная

 

+

+

 

+

+

+

Состязательная атака: Атака отравлением

 

 

 

+

+

+

+

Состязательная атака: Атака уклонения

 

 

 

+

+

 

+

 

Исходя из вышесказанного, в данной статье были описаны:

  • Что федеративное обучение – эффективный метод для обучения модели при помощи распределенных участников, сохраняя при этом конфиденциальность.
  • Что существует несколько видов федеративного обучения, каждая из которых имеет собственные преимущества и недостатки, но при этом создавая гибкость для применения в различных ситуациях.
  • Что существуют различные типы атак, которые могут быть нацелены на разные архитектурные объекты сети, зачастую преследуя цели либо раскрытия конфиденциальной информации, либо нарушения работоспособности сети.
  • Что существуют разные протоколы, методы, техники и технологии для повышения безопасности как обучаемой модели, так и участников данного процесса, а также приведена смежная таблица их возможностей.

 

Список литературы:

  1. DROP: Poison Dilution via Knowledge Distillation for Federated Learning [Электронный ресурс]. – URL: https://arxiv.org/abs/2502.07011 (дата обращения: 15.02.2026).
  2. Введение в Adversarial attacks: как защититься от атак в модели глубокого обучения на транзакционных данных [Электронный ресурс]. – URL: https://habr.com/ru/companies/vtb/articles/718024/ (дата обращения: 15.02.2026).
  3. Федеративное обучение: Privacy-Preserving ML [Электронный ресурс]. – URL: https://www.ultralytics.com/ru/glossary/federated-learning (дата обращения: 15.02.2026).
  4. Threats and vulnerabilities in Federated Learning [Электронный ресурс]. – URL: https://www.geeksforgeeks.org/threats-and-vulnerabilities-in-federated-learning/ (дата обращения: 15.02.2026).
  5. Types of Federated Learning in Machine Learning [Электронный ресурс]. – URL: https://www.geeksforgeeks.org/types-of-federated-learning-in-machine-learning/?ref=ml_lbp (дата обращения: 15.02.2026).
  6. Федеративное обучение: учимся вместе, не раскрывая секретов [Электронный ресурс]. – URL: https://habr.com/ru/companies/skillfactory/articles/880416/ (дата обращения: 15.02.2026).
  7. Что такое федеративное обучение: метод, который приведет к взрывному росту искусственного интеллекта [Электронный ресурс]. – URL: https://www.techinsider.ru/technologies/1677577-chto-takoe-federativnoe-obuchenie-metod-kotoryi-privedet-k-vzryvnomu-rostu-iskusstvennogo-intellekta/ (дата обращения: 15.02.2026).
  8. Consensus Algorithms in Blockchain [Электронный ресурс]. – URL: https://www.geeksforgeeks.org/consensus-algorithms-in-blockchain/ (дата обращения: 15.02.2026).
  9. Что такое задача византийских генералов (BFT)? Примеры. Как работает [Электронный ресурс]. – URL: https://bytwork.com/articles/bft#toc---4 (дата обращения: 15.02.2026).
  10. Что такое атака Sybil? [Электронный ресурс]. – URL: https://www.gate.io/ru/learn/articles/what-is-a-sybil-attack/155 (дата обращения: 15.02.2026).
  11. Обфускация кода: двойной агент в мире информационной безопасности [Электронный ресурс]. – URL: https://www.securitylab.ru/analytics/552204.php (дата обращения: 15.02.2026).
  12. Dropout и Batch normalization [Электронный ресурс]. – URL: https://habr.com/ru/companies/mvideo/articles/782360/ (дата обращения: 15.02.2026).
  13. Google изобрела распределённый ИИ для миллиарда смартфонов [Электронный ресурс]. – URL: https://habr.com/ru/articles/402987/ (дата обращения: 15.02.2026).
  14. Threats, attacks and defenses to federated learning: issues, taxonomy and perspectives [Электронный ресурс]. – URL: https://cybersecurity.springeropen.com/articles/10.1186/s42400-021-00105-6 (дата обращения: 15.02.2026).
  15. Насколько неуязвим искусственный интеллект? [Электронный ресурс]. – URL: https://habr.com/ru/companies/smartengines/articles/528686/ (дата обращения: 15.02.2026).
  16. DropOut в нейронных сетях [Электронный ресурс]. – URL: https://deepmachinelearning.ru/docs/Neural-networks/Regularization/DropOut (дата обращения: 15.02.2026).
  17. Dropout — метод решения проблемы переобучения в нейронных сетях [Электронный ресурс]. – URL: https://habr.com/ru/companies/wunderfund/articles/330814/ (дата обращения: 15.02.2026).
  18. Применение генеративных адверсариальных сетей (GANs) для синтеза данных [Электронный ресурс]. – URL: https://habr.com/ru/companies/otus/articles/754978/ (дата обращения: 15.02.2026).
  19. Исследование атак на модели машинного обучения в сетях 5G на основе генеративно-состязательных сетей [Электронный ресурс]. – URL: https://cyberleninka.ru/article/n/issledovanie-atak-na-modeli-mashinnogo-obucheniya-v-setyah-5g-na-osnove-generativno-sostyazatelnyh-setey (дата обращения: 15.02.2026).
  20. Глубокое обучение методам защиты от атак [Электронный ресурс]. – URL: https://cyberleninka.ru/article/n/glubokoe-obuchenie-metodam-zaschity-ot-atak (дата обращения: 15.02.2026).