Статья опубликована в рамках: Научного журнала «Студенческий» № 1(339)
Рубрика журнала: Информационные технологии
Скачать книгу(-и): скачать журнал часть 1, скачать журнал часть 2, скачать журнал часть 3, скачать журнал часть 4, скачать журнал часть 5, скачать журнал часть 6, скачать журнал часть 7, скачать журнал часть 8, скачать журнал часть 9
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ В ИНФОРМАЦИОННОЙ БЕЗОПАСНОСТИ: ВОЗМОЖНОСТИ И РИСКИ
Технологии искусственного интеллекта сегодня становятся одним из ключевых инструментов обеспечения информационной безопасности, так как позволяют анализировать большие объёмы данных в режиме, близком к реальному времени. Одновременно ИИ радикально меняет и профиль угроз, предоставляя злоумышленникам новые средства автоматизации и маскировки атак. «Исследования показывают, что организации, внедрившие ИИ-системы для детектирования угроз, сократили время обнаружения инцидентов более чем на 70%»
Цель исследования – проанализировать современные направления применения искусственного интеллекта в информационной безопасности, выявить ключевые преимущества и риски его использования, а также обозначить основные исследовательские задачи, связанные с повышением устойчивости ИИ-систем киберзащиты.
Для достижения поставленной цели в работе используются методы сравнительного анализа научных публикаций и практических решений в области ИИ для кибербезопасности, а также аналитический обзор существующих архитектур систем обнаружения аномалий и атак. Особое внимание уделяется сопоставлению возможностей ИИ-подходов с традиционными средствами защиты по критериям скорости обнаружения инцидентов, точности классификации и устойчивости к целенаправленным обходным атакам.
Роль ИИ в защите информационных систем
Основное направление применения ИИ в информационной безопасности связано с интеллектуальным анализом событий и автоматизацией рутинных операций. Современные системы с машинным обучением непрерывно мониторят сетевой трафик, журналы событий и поведение пользователей, выделяя нетипичные действия и потенциальные инциденты Благодаря способности обрабатывать большие массивы разнородных данных такие системы ускоряют выявление сложных атак и снижают нагрузку на специалистов служб ИБ.
Отдельный класс решений — системы на основе поведенческой аналитики и аномалий. Модели обучаются на «нормальном» профиле работы сети и пользователей, а затем сигнализируют о любых значимых отклонениях, что повышает вероятность обнаружения ранее неизвестных сценариев атак. В научных исследованиях отмечается, что ансамблевые и гибридные модели, сочетающие несколько алгоритмов, демонстрируют высокие показатели точности и полноты при выявлении вторжений.
Исследовательские подходы и методы
Исследования в области ИИ для кибербезопасности концентрируются вокруг трёх групп задач: обнаружение угроз, автоматизированный ответ на инциденты и прогнозирование уязвимостей. В работах по аномалийному детектированию показано, что алгоритмы, такие как случайные леса, методы опорных векторов и автоэнкодеры, эффективно выявляют сложные, слабо выраженные аномалии в сетевых данных. При этом комбинация контролируемого и неконтролируемого обучения позволяет обнаруживать как известные, так и принципиально новые виды атак.
Отдельный пласт исследований посвящён объяснимости и доверенности ИИ-моделей в ИБ. Разрабатываются методы интерпретации решений моделей, позволяющие специалистам по безопасности понимать, какие признаки и паттерны легли в основу классификации события как атаки. Это важно для валидации моделей, корректировки политик безопасности и минимизации числа ложных срабатываний в продуктивной среде.
Перспективным направлением становится использование генеративных моделей для повышения качества Threat Intelligence. Генеративные ИИ-системы анализируют глобальные потоки данных о киберугрозах и автоматически формируют аналитические отчёты и рекомендации для центров безопасности. Такие подходы уменьшают время реакции на новые кампании атак и помогают организациям проактивно усиливать защиту своих информационных систем.
Двойственная природа ИИ: новые угрозы
ИИ выступает не только инструментом защиты, но и мощным усилителем атакующих возможностей, что усиливает риск для цифровой инфраструктуры. Злоумышленники используют ИИ для генерации более правдоподобных фишинговых писем, автоматического подбора уязвимостей и создания вредоносного кода, сложнее поддающегося обнаружению традиционными средствами. Отмечается рост масштабных фишинговых и вымогательских кампаний, где ИИ применяется для персонализации сообщений и обхода фильтров.
Отдельную проблему представляют атаки на сами ИИ-системы безопасности. Исследования описывают сценарии отравления данных (poisoning), когда в обучающую выборку намеренно внедряются искажённые объекты, и обходные (evasion) атаки, при которых входные данные модифицируются так, чтобы модель не распознала угрозу. Эти уязвимости подчёркивают необходимость разработки методов защиты ИИ-моделей, включая контроль качества данных, устойчивые архитектуры и механизмы объяснимости решений.
Этические и организационные аспекты
Широкое внедрение ИИ в информационную безопасность сопровождается серьёзными вопросами конфиденциальности и ответственности. Обработка больших массивов пользовательских данных, включая поведенческие профили и журналы активности, повышает риск нарушения приватности и злоупотреблений со стороны организаций. Для минимизации этих рисков предлагается жёстко регламентировать объём собираемых данных, а также применять принципы минимизации и анонимизации.
Не менее важна проблема доверия к автоматизированным решениям. С одной стороны, ИИ способен сократить время расследования инцидентов и повысить эффективность работы аналитиков безопасности. С другой — отсутствие прозрачности в механизмах принятия решений может приводить к ошибочным блокировкам, дискриминационным результатам и снижению контроля со стороны человека. Это требует развития объяснимого ИИ и чётких регламентов взаимодействия человека и системы.
Заключение
Таким образом, ИИ формирует новое поколение средств защиты информации, обеспечивая более точное и быстрое обнаружение угроз и частичную автоматизацию реагирования. Одновременно растущая зависимость от интеллектуальных систем делает инфраструктуру уязвимой к атакам на сами алгоритмы и к злоупотреблениям ИИ со стороны киберпреступников. Исследовательская повестка в данной области всё больше смещается к поиску баланса между эффективностью, устойчивостью и этической ответственностью при использовании ИИ в информационной безопасности.
Список литературы:
- Artificial Intelligence in Cybersecurity: Applications, Challenges, and Future Developments // IEEE Xplore. – 2025. – URL: https://ieeexplore.ieee.org/document/11008137/
- Artificial Intelligence (AI) Cybersecurity – IBM Solutions [Электронный ресурс] // IBM. – 2025. – Режим доступа: https://www.ibm.com/solutions/ai-cybersecurity
- Machine Learning-Based Anomaly Detection Model for Cybersecurity // IIETA. – 2024. – URL: https://www.iieta.org/journals/isi/paper/10.18280/isi.290628
- A deep learning/machine learning approach for anomaly based intrusion detection [Электронный ресурс] // PMC NCBI. – 2025. – Режим доступа: https://pmc.ncbi.nlm.nih.gov/articles/PMC12455727/
- AI and cybersecurity: a risk society perspective // Frontiers in Computer Science. – 2024. – URL: https://www.frontiersin.org/journals/computer-science/articles/10.3389/fcomp.2024.1462250/full
- Artificial Intelligence and Cybersecurity: Balancing Risks and Rewards [Электронный ресурс] // World Economic Forum. – 2025. – Режим доступа: https://reports.weforum.org/docs/WEF_Artificial_Intelligence_and_Cybersecurity_Balancing_Risks_and_Rewards_2025.pdf


Оставить комментарий