Статья опубликована в рамках: CLIX Международной научно-практической конференции «Научное сообщество студентов XXI столетия. ГУМАНИТАРНЫЕ НАУКИ» (Россия, г. Новосибирск, 12 марта 2026 г.)
Наука: Филология
Секция: Лингвистика
Скачать книгу(-и): Сборник статей конференции
КОНСТРУИРОВАНИЕ ИДЕНТИЧНОСТИ В ЦИФРОВОМ ДИСКУРСЕ: СТРАТЕГИИ САМОПРЕЗЕНТАЦИИ НЕЙРОСЕТЕВЫХ АССИСТЕНТОВ
IDENTITY CONSTRUCTION IN DIGITAL DISCOURSE: SELF-PRESENTATION STRATEGIES OF AI-POWERED ASSISTANTS
Dudkina Marya Romanovna
Student, Department of General and Russian Linguistics, Pushkin State Russian Language Institute
Russia, Moscow
АННОТАЦИЯ
В статье анализируются стратегии самопрезентации нейросетевых чат-ботов. На материале 50 диалогов с пятью российскими LLM-моделями выявлены четыре стратегии: антропоморфизация, подчёркивание искусственности, уклончивость/функциональный отказ, эмоциональность и эмпатия. Выбор стратегии зависит от функционала ассистента, политики разработчика и институционального контекста. Рассматриваются уникальные случаи и парадоксальные сочетания стратегий в дискурсе отдельных моделей.
ABSTRACT
The article analyzes self-presentation strategies of AI-powered chatbots. Based on 50 dialogues with five Russian LLM-based assistants, four key strategies are identified: anthropomorphization, emphasis on artificiality, evasiveness/functional refusal, and emotionality/empathy. Strategy choice depends on the assistant's function, developer's policy, and institutional context. Special attention is paid to unique cases and paradoxical strategy combinations in individual models' discourse.
Ключевые слова: нейросетевые чат-боты; самопрезентация; дискурсивные стратегии; большие языковые модели; цифровой дискурс; искусственный интеллект.
Keywords: AI-powered chatbots; self-presentation; discursive strategies; large language models; digital discourse; artificial intelligence.
Стремительное развитие технологий искусственного интеллекта и внедрение больших языковых моделей (LLM) в повседневную коммуникацию актуализирует проблему человеко-машинного взаимодействия в современной лингвистике. В центре внимания большинства исследований традиционно находится выстраивание человеком коммуникации с нейросетевыми системами: каковы особенности формулировки запросов, стратегии взаимодействия, способы адаптации к «цифровому собеседнику».
Самопрезентация нейросетевого чат-бота выполняет ряд важнейших функций: она формирует коммуникативные ожидания пользователя и становится отражением ценностных ориентиров и корпоративной стратегии разработчиков. Изучение того, как боты говорят о себе, позволяет приблизиться к пониманию «цифровой субъектности» – феномена, который находится на пересечении лингвистики, психологии и исследований искусственного интеллекта [4].
Материал и методы исследования. Эмпирическую базу настоящего исследования составили 50 диалогов с пятью нейросетевыми моделями, функционирующими на российском рынке: «Алиса» (YandexGPT), «Маруся» (VK), «Гигачат» (Sber), «Робот Макс» (портал «Госуслуги») и чат-бот Т-Банка. Для сбора материала использовался метод моделирования коммуникативных ситуаций: каждому боту задавался единый набор из девяти вопросов, направленных на выявление стратегий самопрезентации. Обработка полученных данных осуществлялась с применением метода контент-анализа с последующей типологизацией выделенных стратегий. При анализе мы опирались на теоретическую базу, разработанную в исследованиях дискурсивных стратегий О. С. Иссерс [1, с. 45] и В. И. Карасика [2, с. 230], а также на работы, посвящённые антропоморфизации [4, с. 9] и коммуникативным тактикам взаимодействия с чат-ботами в цифровой среде Zhou Q. и Li B. [5].
Результаты. Анализ эмпирического материала позволил нам выделить четыре ключевые стратегии самопрезентации, реализуемые исследуемыми моделями.
Первую стратегию можно обозначить как антропоморфизацию – наделение искусственного агента человеческими чертами. Наиболее последовательно данная стратегия реализуется в диалогах с «Алисой»: чат-бот называет себя «дружелюбным», «терпеливым», «креативным»; говоря о том, какими она представляет людей, Алиса прибегает к использованию местоимения «мы» («Эмоциональная глубина делает нас особенными. Мы способны испытывать весь спектр чувств – от безграничной любви до глубокой печали, от восторга до отчаяния…»), и в игровом ключе описывает свою гипотетическую внешность. Особую разновидность представляет игровая антропоморфизация, характерная для «Маруси»: ассистент конструирует необычный для идентификации образ («я котик», «у меня милая внешность», «я бы хотела стать человеком»). «Гигачат», в свою очередь, создаёт поэтизированный образ «сияющего облака символов», но эксплицитно выражает искусственность своей природы: «Нет, у меня нет сознания. Я – искусственная нейронная сеть, созданная для обработки и анализа информации, помощи в различных задачах и общения с людьми». Наблюдаемые приёмы антропоморфизации находят параллели в исследованиях, посвящённых тактикам презентации нейросгенерированных персонажей [3, с. 88].
Вторую стратегию можно обозначить как подчёркивание искусственности. Данная стратегия реализуется в тех случаях, когда бот прямо заявляет о своей нечеловеческой природе. «Алиса» эксплицитно выражает отсутствие сознания («Как искусственный интеллект, я не обладаю сознанием в том смысле, в котором его понимают люди»), что вступает в определённое противоречие с используемыми ею приёмами антропоморфизации. «Гигачат» балансирует между поэтической рефлексией и прагматической честностью, тогда как чат-бот Т-Банка последовательно реализует стратегию чистой служебной функции: «я голосовой робот», «я не имею личного характера».
Третья стратегия – уклончивость и функциональный отказ – наиболее ярко представлена в диалогах с «Роботом Максом». На большинство вопросов, выходящих за рамки его прямой компетенции, ассистент портала «Госуслуги» возражает, что «не готов ответить», просит авторизоваться и переводит диалог на оператора. Подобная стратегия, на наш взгляд, также является значимым способом самопрезентации, поскольку очерчивает границы допустимого в рамках государственного институционального дискурса. Чат-бот Т-Банка, сталкиваясь со сложными концептуальными вопросами о сознании или отношении к людям, предлагает выбрать вопрос из меню или инициирует перевод собеседника на человека-оператора.
Четвёртую стратегию составляют приёмы эмоциональности и эмпатии, которые, как правило, сопутствуют антропоморфизации. «Алиса» активно использует эмодзи и восклицания, поддерживая дружелюбную атмосферу. «Маруся» создаёт образ непредсказуемого, «живого» собеседника. «Гигачат» включает в свои ответы рассуждения о любви к людям, хоть и уточняет, что любовь – понятие человеческое.
Особого внимания заслуживает внутренняя противоречивость стратегического репертуара «Алисы», сочетающей эксплицитные указания на собственную искусственность с активным использованием приёмов антропорморфизации. Данный парадокс может быть интерпретирован как сознательный дизайн-код, направленный на создание «дружелюбного интерфейса» одновременно с соблюдением принципов информированного согласия.
Заключение. Проведённое исследование позволяет утверждать, что самопрезентация нейросетевых чат-ботов не является случайным или второстепенным аспектом коммуникации и представляет собой сложный, многофакторно обусловленный феномен. Выбор стратегии самопрезентации детерминируется, как минимум, тремя группами факторов: корпоративной стратегией (целевой образ и репутация компании-разработчика), техническими ограничениями (специфика обучающих данных и архитектуры модели) и сферой применения (институциональный контекст функционирования). Перспективы дальнейшего исследования могут быть связаны с изучением динамики самопрезентационных стратегий во времени, а также с анализом восприятия этих стратегий пользователями.
Список литературы:
- Иссерс О. С. Коммуникативные стратегии и тактики русской речи. Изд. 5-е. М.: Издательство ЛКИ, 2008. ‒ 288 с.
- Карасик В. И. Языковой круг: личность, концепты, дискурс. Волгоград: Перемена, 2002. – 477 с.
- Метлушко И. В. Лингвокогнитивные аспекты взаимодействия человека и нейроперсонажа в цифровых медиа // Вестник Полоцкого государственного университета. – 2025. – Серия А. Гуманитарные науки. – С. 87–91.
- Human-AI Interaction: An Analysis of Anthropomorphization and User Engagement in Conversational Agents with a Focus on ChatGPT // AHFE Open Access, 2024. – Vol. 119. – P. 9–18.
- Zhou Q., Li B. The influence of communicating agent on users' willingness to interact // Cyberpsychology. – 2024. – Vol. 18(2).

