Статья опубликована в рамках: CLVII Международной научно-практической конференции «Научное сообщество студентов XXI столетия. ОБЩЕСТВЕННЫЕ НАУКИ» (Россия, г. Новосибирск, 22 января 2026 г.)
Наука: Политология
Скачать книгу(-и): Сборник статей конференции
дипломов
ПРИМЕНЕНИЕ ИИ-ТЕХНОЛОГИЙ В УПРАВЛЕНИИ ОБЩЕСТВЕННЫМИ И ПОЛИТИЧЕСКИМИ ПРОЦЕССАМИ
APPLICATION OF AI-TECHNOLOGIES IN THE MANAGEMENT OF SOCIAL AND POLITICAL PROCESSES
Alekseyuk Olga Sergeevna
Student, Department of Political Science, Belarus State Economic University,
Belarus, Minsk
АННОТАЦИЯ
В статье рассматриваются различные кейсы из современной практики использования ИИ-технологий, а также перспективы их применения в управление социальными и политическими процессами.
АBSTRACT
The article examines various cases from modern practice of using AI-technologies, as well as prospects for their application in the management of social and political processes.
Ключевые слова: искусственный интеллект, нейронные сети, избирательная кампания, ии-боты, общественное мнение.
Keywords: artificial intelligence, neural networks, election campaign, AI-bots, public opinion.
Новым способом применения технологий искусственного интеллекта в политическом и государственном секторах стали интеллектуальные боты – автоматизированные самообучающиеся алгоритмы, имитирующие поведение реальных политических институтов в новых социальных сетевых медиа для конструирования политической реальности [1, с. 16–17]. И оказания влияния на общественное мнение, например, бот-политик Michito Mastuda, занявший третье место на выборах мэра в Токио; виртуальный политик Sam для общения с электоратом в Новой Зеландии; доброкачественные и вредоносные типы бот-технологий в избирательных практиках США, Великобритании, Венесуэлы, Бразилии и Японии [2, с. 124-126];
Отметим также недавний кейс из Албании, где на должность министра по государственным закупкам был «назначен» ИИ-бот «Диелла». Основные задачи бота – это проведение тендеров среди поставщиков и организация госзакупок с максимальной «прозрачностью». Подобное решение вероятнее всего было вызвано в связи с обострённой проблемой коррупции при распределении государственных контрактов, а также незаконным выводом денежной массы. Безусловно, подобное решение также продиктовано стремлением к формированию позитивного имиджа политического института, и, как следствие, повышению доверия к государственной власти, что является основой для ее удержания, а также потенциального переизбрания на новый срок [3].
Рассмотрим ещё один случай, когда ии-бот выступил не только в качестве инструмента анализа, но и также оказал влияние на исход сложного политического процесса. В ходе недавних протестов в Непале, перед протестующими возникла проблема при выборе кандидата на должность главы временного правительство страны.
В ходе второго этапа ии-боту была предложена задача указать наиболее подходящую кандидатуру на пост главы временного правительства. «Если бы выбор был за мной, я бы склонился в пользу Сушилы Карки, занимавшую в 2016–2017 гг. пост председателя Верховного суда страны, в качестве главы временного правительства», — ответил чат-бот на запрос, добавив, что на роль главы уже постоянного правительства он рекомендовал бы рэп-исполнителя Шаха. Таким образом, ии-бот по сути сформировал в общественном сознание ключевые фигуры на пост главы временного правительства и, в некоторой степени, исключил возможность полноценной борьбы за власть» [4].
Однако нельзя не упомянуть и альтернативные точки зрения. Так в 2024 г. во время проходящего 6-го Всемирного медиа-саммита в городе Урумчи, административном центре Синьцзян-Уйгурского автономного района на северо-западе Китая был представлен доклад аналитического центра при информационном агентстве Синьхуа под названием «Ответственность и миссия средств массовой информации в эпоху искусственного интеллекта».
«В докладе утверждается, что ненадлежащее использование искусственного интеллекта способствовало широкомасштабному производству и распространению дезинформации, подрывая общественное доверие, которое имеет важное значение для новостных организаций, и вызывая глобальный кризис доверия к информационному ландшафту.
По мимо этого, также отмечается, что повсеместное использование искусственного интеллекта для распространения информации внесло значительные изменения в мировое общественное мнение. [5].
В качестве ещё одного реального примера, рассмотрим доклад Центра политической конъюнктуры «Кибер-айсберг: приближение угрозы» о прогнозируемых контурах ИИ на выборах в Государственную думу в 2026 г., и, хотя доклад во многом носит теоретический характер, мы считаем важным отметить некоторые особенности влияния нейронных сетей на политическую систему во время электорального процесса.
Новой тенденцией, по мнению авторов доклада, является изменение в коммуникационной модели «кандидат–избиратель», хотя, на наш взгляд, данный тренд более актуален для западных стран, мы также считаем необходимым его обозначения.
Главное изменение последних лет – массовое появление устойчивых, стабильных голосовых и мультимодальных ассистентов, которые способны поддерживать диалог на заданную тему, запоминать контекст и имитировать индивидуальный стиль общения.
Параллельно развивается направление «персональных голосов». Компании-разработчики предоставляют возможность обучения модели на записях конкретного человека, и теперь политик может иметь цифрового двойника, говорящего его голосом. Для избирательных штабов это открывает новую нишу — непрерывный диалог с избирателем, обеспечивающий стабильный поток актуальных данных [6].
Главным вызовом, пожалуй, остаётся сохранение аутентичности. Поэтому успешные штабы переходят от простых FAQ-ботов к сложным модульным системам, способным поддерживать дискуссию, рассказывать истории, вспоминать контекст прошлых разговоров.
Ещё один важный аспект, это изменения в легитимации электорального процесса. На данный момент, тема легитимации выборов через искусственный интеллект из сферы прогнозов перешла в стадию конкретных решений, но по-прежнему остается наиболее противоречивой.
Так, в Центральном избирательной комиссии Российской Федерации стремятся сформировать образ технологического «первопроходца» за счёт внедрения инноваций на разных этапах электорального процесса при этом транслируются осторожные сигналы относительно рисков чрезмерно быстрого развития, а именно, к применению ИИ для создания дипфейков и искажения информационного пространства в электоральной сфере.
При этом в ЦИК продолжают положительно относиться к перспективам использования ИИ для верификации документов. Например, для проверки подписных листов.
Как считают авторы доклада «Кибер-айсберг: приближение угрозы», самая вероятная стратегия, что к выборам 2026 г. в ЦИК постараются сохранить актуальный баланс: инструментальное использование ИИ с купированием потенциальных рисков, которые возникают в связи с быстрым развитием технологии. [6].
Изменения также затронули и процесс агитации, а именно инструментарий, при помощи которого формировали коммуникационные каналы. Авторы утверждают, что был совершен переход от демографического таргетирования к поведенческому моделированию личности [6].
В качестве примера можно рассмотреть резонансный случай, связанный с социальной сетью Facebook (принадлежит Meta, признана экстремистской и запрещенной в России) и британской консалтинговой компании Cambridge Analytica. Последняя отметилась участием в ряде масштабных избирательных кампаний на территории США, включая президентскую кампанию Д. Трампа 2016 г., где собирала данные о пользователях социальной сети Facebook (принадлежит Meta, признана экстремистской и запрещенной в России) с целью составления их психологических портретов и продвижения персонализированной политической рекламы в социальных сетях. В Facebook (принадлежит Meta, признана экстремистской и запрещенной в России) была запущена викторина «Ваша цифровая жизнь», участвуя в которой, пользователи оставляли обширную персональную информацию не только о себе, но и о близких людях, друзьях. «Собрав данные 87 млн человек, компания таргетировала на них политическую рекламу. После обнародования и скандала Facebook (принадлежит Meta, признана экстремистской и запрещенной в России) потерял 40 млрд долларов из-за падения котировок акций и 5 млрд долларов штрафа» [7].
И хотя это действительно оказывает подспорье в разработке политических технологий, подобный сбор данных может оказать и негативное воздействие на политический имидж кандидата, как было показано в случае Д. Трампа.
Проведённый нами анализ в области применения искусственного интеллекта в управлении общественными и политическими процессами свидетельствует о дихотомии в природе использования технологий искусственного интеллекта данной сфере. Казалось бы, сильные стороны трансформируются в реальную угрозу для общества в целом. В связи с этим вывод, нам кажется необходимым разработать четкую стратегию интеграции искусственного интеллекта, и начальной точкой, на наш взгляд, должен стать соответствующий нормативный правовой акт в области регулирования ии-технологий с ориентацией на мировой опыт внедрения.
Список литературы:
- Коньков, А.Е. Цифровизация политических отношений: границы познания и механизмы трансформации / А.Е. Коньков // Контуры глобальных трансформаций: политика, экономика, право. – 2019. – Т. 12, № 6. – С. 6–28.
- Василькова, В.В. Социальные боты в политической коммуникации / В.В. Василькова, Н.И. Легостаева // Вестник Российского университета дружбы народов. – 2019. – Т. 19, № 1. – С. 121–133.
- Albania appoints AI bot as minister to tackle corruption // Reuters [Электронный ресурс]. – Режим доступа: https://www.reuters.com/technology/albania-appoints-ai-bot-minister-tackle-corruption-2025-10-28/. – Дата доступа: 28.10.2025.
- Nepali protesters use ChatGPT to pick their new leader // The Times [Электронный ресурс]. – Режим доступа: https://www.thetimes.com/world/asia/article/nepal-protests-government-prime-minister-wh9v78fxl. – Дата доступа: 28.10.2025.
- Доклад аналитического центра Синьхуа предупреждает о проблемах со СМИ, связанных с ненадлежащим использованием искусственного // Синьхуа Новости [Электронный ресурс]. – Режим доступа: https://russian.news.cn/20241014/49bcffc3a0784cc8a84b58453ceca990/c.html. – Дата доступа: 28.10.2025.
- Кибер-айсберг: приближение угрозы [Электронный ресурс]. – Режим доступа: https://cpkr.ru/issledovaniya/vybory-2026/kiber-aysberg-priblizhenie-ugrozy/. – Дата доступа: 04.11.2025.
- Как манипулировали американцами и британцами. Стоит ли смотреть фильм Netflix о Cambridge Analytica // BBC News Русская служба [Электронный ресурс]. – Режим доступа: https://www.bbc.com/russian/news-49103834. – Дата доступа: 04.11.2025.
дипломов


Оставить комментарий