Телефон: 8-800-350-22-65
Напишите нам:
WhatsApp:
Telegram:
MAX:
Прием заявок круглосуточно
График работы офиса: с 9:00 до 21:00 Нск (с 5:00 до 19:00 Мск)

Статья опубликована в рамках: CCXXXV Международной научно-практической конференции «Научное сообщество студентов: МЕЖДИСЦИПЛИНАРНЫЕ ИССЛЕДОВАНИЯ» (Россия, г. Новосибирск, 30 апреля 2026 г.)

Наука: Искусствоведение

Скачать книгу(-и): Сборник статей конференции

Библиографическое описание:
Альолаби А. БРЕНДИНГ ОНЛАЙН-ПЛАТФОРМЫ ДЛЯ КОНСТРУКТИВНОГО ДИАЛОГА И СНИЖЕНИЯ УРОВНЯ КИБЕРБУЛЛИНГА // Научное сообщество студентов: МЕЖДИСЦИПЛИНАРНЫЕ ИССЛЕДОВАНИЯ: сб. ст. по мат. CCXXXV междунар. студ. науч.-практ. конф. № 8(234). URL: https://sibac.info/archive/meghdis/8(234).pdf (дата обращения: 06.05.2026)
Проголосовать за статью
Идет голосование
Эта статья набрала 0 голосов (обновление каждые 15 минут)
Дипломы участников
У данной статьи нет
дипломов

БРЕНДИНГ ОНЛАЙН-ПЛАТФОРМЫ ДЛЯ КОНСТРУКТИВНОГО ДИАЛОГА И СНИЖЕНИЯ УРОВНЯ КИБЕРБУЛЛИНГА

Альолаби Ахмад

магистрант второго года; Технология, дизайн, искусство, Российский государственный университет им А.Н. Косыгина,

РФ, г. Москва

Козырева Любовь Константиновна

научный руководитель,

канд. искусствоведения, член Союза дизайнеров России, Российский государственный университет им А.Н. Косыгина,

РФ, г. Москва

BRANDING AN ONLINE PLATFORM FOR CONSTRUCTIVE DIALOGUE AND REDUCING CYBERBULLYING

 

Alolaby Ahmad

Second-year Master's student; Technology. Design. Art; A.N. Kosygin State University of Russia,

Russia; Moscow

Kozyreva Lyubov Konstantinovna

Scientific supervisor, PhD in Art History, Member of the Union of Designers of Russia, A.N. Kosygin Russian State University,

Russia, Moscow

 

АННОТАЦИЯ

В данной статье предлагается практическая модель построения брендов для онлайн-платформ, где бренд рассматривается как «договор доверия» и поведенческий инструмент: посредством ценностей, тона общения и механизмов продукта он формирует нормы взаимодействия и снижает вероятность кибербуллинга. На основе исследований кибербуллинга, онлайн-дискуссий и поведенческих вмешательств (руководства) в статье демонстрируются элементы, которые наилучшим образом интегрируют идентичность, регистрацию, правила сообщества и управление. В исследовании особое внимание уделяется прозрачности управления, управлению системными рисками и соблюдению нормативных требований, включая подходы, изложенные в Законе о цифровых услугах, а также принципам защиты конфиденциальности на этапе проектирования. [2; 3; 6; 12]

ABSTRACT

This article proposes a practical branding model for an online platform, where the brand is treated as a trust contract and a behavioral tool: through values, tone of voice, and product mechanisms, it shapes interaction norms and reduces the likelihood of cyberbullying. Drawing on research on cyberbullying, online deliberations, and message-based guidance, the paper identifies the most effective elements of identity, registration, community rules, and moderation when combined. It also addresses moderation transparency, systemic risk management, and regulatory compliance, including approaches embedded in the Digital Services Act and privacy requirements by design. [2; 3; 6; 8]

 

Ключевые слова: брендинг; конструктивный диалог; модерация; кибербуллинг; доверие; поведенческий дизайн; системные риски. [7]

Keywords: branding; constructive dialogue; moderation; cyberbullying; trust; behavioral design; systemic risks. [1]

 

В цифровой среде борьба с кибербуллингом часто сводится к двум полюсам: «строгая цензура» и «осведомленность пользователей». Однако исследования показывают, что собственная архитектура платформы — от пользовательского интерфейса до правил и стиля общения — может систематически усугублять или смягчать агрессию и издевательства. Поэтому снижение уровня кибербуллинга становится вопросом как дизайна продукта, так и дизайна бренда: брендинг определяет ожидаемое поведение и делает его социально «нормальным». [11; 3]

По данным Европейской комиссии, кибербуллинг затрагивает значительную часть подростков, приводя к серьезным последствиям, включая ухудшение психического здоровья и низкую самооценку. Ключевые факторы риска включают потенциальную возможность широкого распространения и сохранение цифрового следа. Это означает, что единичный инцидент может быстро перерасти в массовую атаку, если платформа не устанавливает границы для онлайн-коммуникации и не оказывает поддержку жертвам. [4; 7]

Цель данной статьи — показать, как бренд может сформировать «базовую структуру» платформы для конструктивного диалога: от заявления о миссии и визуального языка до механизмов присоединения, установления правил и модерации. Такой подход не заменяет правоохранительные органы и психологическую поддержку, но снижает вероятность негативного поведения, способствует самоконтролю и создает у пользователей ощущение безопасного «общественного пространства». [3; 1]

1. КИБЕРБУЛЛИНГ КАК ПРОДУКТОВЫЙ РИСК: ОТ ИНЦИДЕНТА К СИСТЕМЕ

В научной литературе кибербуллинг определяется как преднамеренное и неоднократное причинение вреда с использованием цифровых каналов в условиях неравной власти (например, статуса, аудитории, доступа к данным или координации). Ключевые результаты исследований показывают, что кибербуллинг тесно связан с характеристиками платформы, такими как ясность контента, легкость его распространения, низкая стоимость агрессии и ограниченная способность жертвы быстро остановить его распространение. [2; 16]

Согласно данным ОЭСР, несмотря на растущее число исследований и инициатив, между странами сохраняются расхождения в определениях и показателях, что затрудняет сравнение результатов и масштабирование эффективных решений. Для платформ это означает наличие собственных оперативных определений (что constitutes издевательства, домогательства или скоординированные домогательства) и измеримых индикаторов риска, интегрированных в аналитику продукта. [7]

Важный практический урок: кибербуллинг редко начинается внезапно; ему обычно предшествуют ранние предупреждающие признаки: усиление негативных реакций, рост числа жалоб, неоднократные уничижительные упоминания кого-либо и нарастание конфликтов на деликатные темы. Перевод этих признаков в простые для понимания «правила использования» — это обязанность команд по брендингу и пользовательскому опыту, а не только команды по обеспечению доверия и безопасности. [11; 14]

2. БРЕНД КАК КОНТРАКТ ДОВЕРИЯ: ПОЧЕМУ АЙДЕНТИКА ВЛИЯЕТ НА ПОВЕДЕНИЕ

В онлайн-сообществах брендинг выполняет не только маркетинговую, но и социальную и психологическую функцию: он помогает людям ответить на вопросы «Кто мы здесь?» и «Как мы здесь общаемся?». Исследования виртуальных брендовых сообществ показывают, что идентификация с сообществом повышает вовлеченность и лояльность, а также увеличивает готовность следовать групповым нормам, если они воспринимаются как часть общей идентичности. [9]

Это приводит нас к важному предупреждению: стратегии борьбы с травлей не должны восприниматься как «цензура», иначе пользователи займут оборонительную позицию и будут искать альтернативные решения. Бренд, который поощряет конструктивный диалог, устанавливает позитивную норму («Мы обсуждаем суть»), а не запретительную («Не оскорбляйте»); он способствует развитию языка уважения и предоставляет инструменты, облегчающие его применение. [3; 1]

ЮНЕСКО подчеркивает, что цифровое насилие и травля все чаще рассматриваются как вопросы безопасности и благополучия учащихся, а не просто личные конфликты. Перевод этой концепции на язык бренда означает, что платформа должна передавать безопасность как основную ценность: «Мы защищаем диалог», а не «Мы наказываем нарушителей». [10]

На практике это проявляется в трех уровнях обещания бренда: (1) уровень ценностей – уважение, любопытство и проверяемость; (2) уровень поведения – правила взаимодействия и санкции; и (3) уровень обслуживания – инструменты поддержки, механизмы обжалования и прозрачная отчетность. Этот трехуровневый договор обеспечивает баланс ожиданий: платформа обещает действия, а пользователь – соблюдение. [13; 14]

3. ДИЗАЙН ДИАЛОГА: КАКИЕ МЕХАНИКИ ПОДДЕРЖИВАЮТ КОНСТРУКТИВНОСТЬ

Исследования онлайн-дискуссий показывают, что их эффективность зависит от соответствия задачи, аудитории и среды: одинаковые технические характеристики могут функционировать по-разному в зависимости от цели (поиск решения, обмен опытом, обсуждение политики) и состава участников. Поэтому стратегия бренда должна начинаться с выбора формата диалога: когда допустимо выражать эмоции, когда требуются доказательства, какие темы требуют большей модерации и почему. [3]

Короткие мотивирующие сообщения, способствующие формированию социальных норм, эмпатии и самоконтроля перед публикацией, являются одними из наиболее широко применяемых методов воздействия. Исследование с участием семи различных групп показало, что определенные сообщения, укрепляющие социальные нормы и смягчающие негативные эмоции, могут повысить вовлеченность в безобидный контент и потенциально улучшить качество взаимодействия без прямого удаления сообщений. Это крайне важно для брендов, поскольку платформа может поощрять диалог, а не наказывать. [1]

В то же время, само вмешательство может быть эффективным только при условии соответствующего повторения и контекста. Если предупреждение поступает слишком часто, оно превращается в простой шум; если оно поступает слишком поздно, оно не изменит решения. Здесь бренд функционирует не как этикетка, а как ритм: он выбирает моменты истины (запись, первоначальное сообщение, нить конфликта) и говорит кратко, ясно и последовательно. [1; 3]

Механики, повышающие «стоимость» атаки и снижающие импульсивность, особенно эффективны в борьбе с кибербуллингом: задержки публикации для новых аккаунтов; ограничение массовых упоминаний; предупреждения о последствиях; выделение правил рядом с полем ввода; простые кнопки поддержки для свидетелей (сообщить, «поддержать автора», «перевести спор в личный диалог»). Исследования в области проектирования ИТ-систем показывают, что сочетание функций идентификации, осведомленности и контроля может снизить склонность к кибербуллингу за счет повышения ответственности и видимости норм. [11]

«Язык несогласия» — важнейший элемент брендинга: готовые ответы и шаблоны, позволяющие вести объективную дискуссию без личных нападок. Этот язык может включать в себя библиотеку фраз («Я вижу это иначе, потому что...», «Я не уверен, пожалуйста, уточните...») и «руководство по стилю» для взаимодействия с пользователями. Эти инструменты служат «социальной инфраструктурой» для обсуждения, как показывают исследования дизайна онлайн-форумов. [3]

4. TRUST & SAFETY КАК ЧАСТЬ БРЕНДА: ПРАВИЛА, МОДЕРАЦИЯ, ПРОЗРАЧНОСТЬ

Пользователи рассматривают модерацию контента не только как технический механизм фильтрации, но и как этическую позицию платформы. Если правила расплывчаты, а решения непредсказуемы, доверие подрывается, и пользователи начинают «рисковать» с системой. Поэтому международные руководства (такие как Принципы Санта-Клары) делают акцент на прозрачности: четкие правила, уведомления о причинах принятых решений, возможность обжалования и регулярная отчетность. [13]

Эмпирические исследования отчетов о прозрачности показывают, что даже крупные платформы значительно различаются по полноте и сопоставимости раскрываемых ими данных, а отсутствие стандартизированных критериев препятствует общественному контролю. Для новых платформ это открывает возможности: если бренд заранее обещает «измеримую справедливость» (публичные показатели, четкая классификация нарушений и сроки разрешения жалоб), прозрачность становится конкурентным преимуществом. [14; 13]

На практике целесообразно различать три уровня правил: (1) «красные линии» (угрозы, домогательства и разжигание ненависти); (2) «правила качества диалога» (разум, уважение и избегание личных нападок); и (3) «правила форматирования» (контент, раскрывающий конфиденциальную информацию, контент не по теме и дублирующие сообщения). Бренд обязан обеспечить четкое объяснение этих уровней и их интеграцию в пользовательский интерфейс, как это делается с условиями обслуживания и рекомендациями. [13; 11]

Отдельный раздел посвящен запросам от жертв и свидетелей: интерфейс для подачи заявлений должен быть кратким и информативным, а ответы — персонализированными. ОЭСР подчеркивает важность поддержки жертв и программ, повышающих осведомленность и облегчающих доступ к помощи; на практике это выражается в «помощи в один клик»: ресурсы, горячие линии (по странам) и рекомендации по сохранению доказательств и настройкам конфиденциальности. [7]

5. РЕГУЛЯТОРНЫЙ КОНТУР: СИСТЕМНЫЕ РИСКИ, DSA И PRIVACY BY DESIGN

Для платформ, работающих в Европейском Союзе или ориентированных на европейскую аудиторию, требования к управлению рисками стали неотъемлемой частью ответственности бренда. Закон о цифровых услугах требует от крупных платформ оценки и смягчения системных рисков, в том числе связанных с распространением незаконного контента и его негативным воздействием на основные права. Даже если платформа не подпадает под категорию VLOP/VLOSE, подход к оценке рисков стал отраслевым стандартом. [6; 5]

В своем докладе о цифровом маркетинге Европейская комиссия подчеркивает необходимость понимания «ландшафта» системных киберрисков. В отношении кибербуллинга это означает рассмотрение не только отдельных случаев, но и динамики распространения атак, рекомендаций, группового буллинга и механизмов взаимодействия. Для брендов это выражается в принципе: «Мы не стремимся к повышению вовлеченности любой ценой» — принцип, поддерживаемый политикой в ​​отношении продукции. [5; 1]

Периодические оценки рисков стали практическим инструментом, включающим в себя составление карт сценариев травли, анализ групп высокого риска, рассмотрение рекомендаций и проверку эффективности механизмов контроля в периоды пиковой нагрузки на интернет. Анализ, проведенный Институтом системных оценок рисков имени Найта-Джорджтауна в секторе цифровых интернет-услуг, показывает, что эффективная стратегия строится на сочетании доказательств, процедур и внешней проверяемости (аудиты, исследования и доступ к данным). [15; 6]

В то же время растет ожидание «защиты конфиденциальности на этапе проектирования»: защита данных должна быть интегрирована в жизненный цикл продукта, а настройки конфиденциальности должны быть явно указаны по умолчанию. Стандарт ISO 31700-1:2023 устанавливает общие требования к защите конфиденциальности на этапе проектирования потребительских товаров, которые могут служить полезным внутренним справочным списком: сокращение объема данных, прозрачность целей обработки, пользовательский контроль, безопасность и управление рисками. [8]

Взаимодействие между безопасностью и конфиденциальностью имеет решающее значение в борьбе с кибербуллингом: чрезмерное раскрытие личных данных может увеличить риск преследования за пределами платформы, в то время как чрезмерная анонимность может снизить ответственность. Поэтому бренд должен четко обозначить компромиссы между этими аспектами: какие данные собираются для защиты сообщества, как они защищаются, каковы права пользователей и как работают механизмы обжалования. Это соответствует правозащитной концепции, которую исследователи, использующие ИИ в своей работе, считают важной для подростков: защита не должна подрывать свободу выражения мнений и чувство контроля. [12; 8]

6. ИНСТРУМЕНТАРИЙ БРЕНД‑ПЛАТФОРМЫ: СТРУКТУРА, ТАБЛИЦЫ, ПРИМЕРЫ

Ниже представлена предлагаемая структурная модель платформы бренда, где каждый элемент связан с наблюдаемыми моделями поведения и показателями. Такая взаимосвязь помогает отойти от абстрактных слоганов и превратить бренд в управляемую систему, что особенно важно для отчетности и аудита (внутреннего или внешнего), включая методологии анализа цифровых рисков. [15; 6]

Таблица 1.

Модель брендовой платформы для конструктивного диалога и борьбы с травлей (ссылка "Элемент-Механизм-Шкала"). [11; 1]

Элемент бренда/продукта

Поведенческий механизм

Пример реализации на платформе

Ключевые метрики

Миссия и ценности

Нормативная рамка; общая идентичность

Манифест сообщества + примеры «как спорим» в онбординге

Доля пользователей, прочитавших правила; повторные визиты новичков

Тон коммуникации (tone of voice)

Снижение эскалации; социальное подкрепление

Микрокопирайтинг в репортах и предупреждениях без обвинительного тона

Снижение повторных нарушений; удовлетворённость ответом поддержки

Правила сообщества (3 слоя)

Ясность границ; предсказуемость санкций

Короткие правила + раскрывающиеся примеры; «почему это важно»

Конверсия репорта; доля обоснованных жалоб

Надж‑механики перед публикацией

Самоконтроль; активация норм/эмпатии

Подсказка «остыть» / «помнить о нормах» для конфликтных тем

Токсичность комментариев; доля удалённых/скрытых сообщений

Модерация и апелляции

Процедурная справедливость

Уведомление о причине; апелляция; сроки рассмотрения

Время до решения; доля успешных апелляций

Прозрачность (отчёты)

Повышение доверия; внешняя проверяемость

Ежеквартальный отчёт по категориям нарушений и исходам

Индекс доверия; NPS; жалобы на «несправедливость»

Приватность по умолчанию

Снижение риска doxxing/преследования

Ограничение массовых упоминаний; скрытие контактов

Инциденты утечки; количество запросов на удаление данных

 

Это не заменяет стратегию модерации, но помогает связать обещания бренда с измеримыми результатами. Важно заранее согласовать ключевые показатели: ограничение токсичного контента не должно происходить за счет подавления законного инакомыслия; именно поэтому исследования подчеркивают необходимость баланса между защитой, конфиденциальностью и свободой выражения мнений. [12; 6]

Таблица 2.

Меры мониторинга кибербуллинга и качества диалога (практическое применение продуктовой аналитики). [7; 14]

Метрика

Как считать

Как интерпретировать

Rate of Reports (RR)

Число репортов / 1 000 активных пользователей в сутки

Рост может означать ухудшение поведения или улучшение доверия к репортингу

Validated Harm Rate (VHR)

Доля репортов, подтвердившихся модерацией

Показывает точность правил и качества репорт‑категорий

Repeat Offender Rate

Доля нарушителей, совершивших повторное нарушение за 30 дней

Прокси эффективности санкций и профилактики

Time to Action (TTA)

Медианное время от репорта до действия

Критично для предотвращения «снежного кома» травли

Victim Support Reach

Доля пострадавших, получивших помощь/навигацию по ресурсам

Показывает «сервисную» часть бренда безопасности

Civility Score

Доля комментариев без токсичных маркеров + доля аргументированных ответов

Нужно отслеживать в разрезе тем/аудиторий

Appeal Uphold Rate

Доля апелляций, изменивших решение

Слишком высокая — признак ошибок; слишком низкая — риск недоверия

 

Публикация сводных показателей (как минимум ежеквартально) снижает ощущение случайности и приближает платформу к стандартам прозрачности, обсуждаемым в Принципах Санта-Клары и в исследованиях по отчетности о прозрачности. Важно избегать «показателей ради показателей»: показатели должны быть связаны с решениями (изменениями в процессе настройки, частотой оповещений и настройками правил). [13; 14]

7. БРЕНД‑СТРАТЕГИЯ ВНЕДРЕНИЯ: ОТ ЗАПУСКА ДО КРИЗИСОВ

Усилия по борьбе с травлей начинаются еще до запуска продукта: на веб-сайте платформы и в соответствии с ее обещаниями. Если продукт рекламирует «свободу выражения без последствий», наивно ожидать конструктивных результатов; если же он рекламирует «поддержку в сложных дискуссиях», он обязуется инвестировать в модерацию, дизайн и поддержку. Это можно интерпретировать, по мнению Ассоциации цифровых социалистов, как проактивное управление рисками: обещание должно быть подкреплено конкретными действиями. [6; 15]

На этапе адаптации важно не перегружать пользователей юридическим жаргоном, а предоставить три вещи: (1) краткий стандарт («Мы критикуем идеи, а не людей»), (2) объяснение «почему» (безопасность и качество общения) и (3) основные инструменты — как подать жалобу, как защитить конфиденциальность и как передать проблему на рассмотрение вышестоящим инстанциям. ОЭСР подчеркивает важность образовательных и поддерживающих мер; платформа может интегрировать их в течение первых пяти минут использования. [7; 4]

Затем бренд укрепляется с помощью «деликатных моментов»: предварительных и последующих предупреждений, мягких замечаний во время эскалации, благодарности за помощь и поведенческого «мониторинга». Исследования Ноджеса показывают, что установление стандартов и эмоциональная саморегуляция являются многообещающими и широко применимыми инструментами, особенно если их дизайн последователен и не воспринимается как нравоучение. [1]

Кризисы (такие как кибербуллинг, обвинения в цензуре и нападения на руководителей) представляют собой более серьезную проверку для бренда, чем любая маркетинговая кампания. Поэтому такие кризисы требуют протокола реагирования на публичные инциденты, четких заявлений («Мы проводим расследование», «Мы приняли меры») и канала связи с пострадавшими. Практики прозрачности, изложенные в Принципах Санта-Клары, выходят за рамки простого информирования; они также включают разъяснение решений, принятых в конкретных ситуациях, что снижает вероятность негативных последствий для пострадавших. [13]

Наконец, построение бренда должно поддерживаться циклом непрерывного совершенствования: регулярными исследованиями пользовательского опыта (в том числе среди подростков, если целевая аудитория это позволяет), периодическими проверками для обеспечения целостности контроля и привлечением внешних экспертов. Исследования восприятия вмешательств ИИ показывают, что дети чувствительны к нарушениям конфиденциальности и чувству несправедливости; поэтому любые автоматизированные действия должны сопровождаться объяснениями человека и каналами поддержки. [12]

ЗАКЛЮЧЕНИЕ

Снижение уровня кибербуллинга — это не просто дополнительная ценность продукта, а неотъемлемая часть его бренда и структуры. Бренд устанавливает свои стандарты, делает их ясными и уменьшает двусмысленность: пользователи понимают, что ценятся дискуссии, а не оскорбления, и видят, как платформа выполняет свой «договор доверия» своими действиями и инструментами. [9; 13]

Предложенная в статье практическая модель объединяет сообщение, тон общения, правила, средства контроля и метрики в единую систему управления поведением. Она соответствует современным нормативным требованиям (подход DSA к оценке рисков) и принципам защиты конфиденциальности на этапе проектирования, что делает платформу более безопасной и устойчивой для бренда. [6; 8]

Проведение полевых экспериментов по изменению пользовательского интерфейса (например, с помощью мотивационных сообщений, ограничений сигналов и изменений в ясности взаимодействия) и анализ их долгосрочного влияния на культуру обсуждений является перспективным направлением для дальнейших исследований. Мотивационные исследования подтверждают, что одно решение редко «решает» сложную социальную проблему; скорее, последовательное сочетание проектных решений и прозрачных действий может сделать поэтапное развитие нормой. [1; 3]

 

Приложения с иллюстрациями.

 

Рисунок 1. «Маховик доверия: как бренд усиливает позитивное поведение» 14]

 

Таблица 3

Онбординг конструктивного диалога [3; 11]

Шаг

Экран

Действие пользователя

Подсказка/механика

Эффект

1

Регистрация

Создаёт профиль

Мини-прогресс + дружественные подсказки

без ошибок Быстрый вход

2

Правила

Соглашается

с кодексом

3-5 норм + чекбокс согласия

Фиксация ожиданий

3

Первая публикация

Пишет первый пост

Шаблон: тезис → аргумент → вопрос

Больше конструктива

4

Конфликтная тема

Отвечает

в споре

Проверка тона:

«факты, без ярлыков»

Меньше эскалаций

 

Рисунок 3. «Петля модерации и апелляции» [13; 15]

 

Список литературы:

  1. Celadin T., Panizza F., Capraro V. Promoting civil discourse on social media using nudges: A tournament of seven interventions // PNAS Nexus. 2024. Vol. 3, Issue 10. pgae380. DOI: 10.1093/pnasnexus/pgae380.
  2. Chan T.K.H., Cheung C.M.K., Lee Z.W.Y. Cyberbullying on social networking sites: A literature review and future research directions // Information & Management. 2020. Vol. 57. Article 103411. DOI: 10.1016/j.im.2020.103411.
  3. Davies T., Chandler R. Online Deliberation Design: Choices, Criteria, and Evidence. arXiv:1302.5177. 2013. URL: https://arxiv.org/abs/1302.5177 (дата обращения: 24.01.2026).
  4. European Commission. Cyberbullying – protecting children online. URL: https://digital-strategy.ec.europa.eu/en/policies/cyberbullying (дата обращения: 24.01.2026).
  5. European Commission. Digital Services Act report lays out landscape of systemic risks online (09.12.2025). URL: https://digital-strategy.ec.europa.eu/en/news/digital-services-act-report-lays-out-landscape-systemic-risks-online (дата обращения: 24.01.2026).
  6. European Union. Regulation (EU) 2022/2065 of the European Parliament and of the Council of 19 October 2022 on a Single Market For Digital Services and amending Directive 2000/31/EC (Digital Services Act) // Official Journal of the European Union. L 277. 27.10.2022. URL: https://eur-lex.europa.eu/eli/reg/2022/2065/oj/eng (дата обращения: 24.01.2026).
  7. Gottschalk F. Cyberbullying: An overview of research and policy in OECD countries // OECD Education Working Papers. 2022. No. 270. OECD Publishing. DOI: 10.1787/f60b492b-en.
  8. ISO. ISO 31700-1:2023 — Consumer protection — Privacy by design for consumer goods and services — Part 1: High-level requirements. 2023. URL: https://www.iso.org/standard/84977.html (дата обращения: 24.01.2026).
  9. Kaur H., Paruthi M., Islam J.U., Hollebeek L.D. The role of brand community identification and reward on consumer brand engagement and brand loyalty in virtual brand communities // Telematics and Informatics. 2019. Vol. 39. P. 101321. DOI: 10.1016/j.tele.2019.101321.
  10. Liu Y., Khavarani E., D’Addio A.C. School violence: Cyberbullying is a growing concern for safety and mental well-being. World Education Blog (UNESCO). 02.11.2023 (обновлено 06.11.2023). URL: https://world-education-blog.org/2023/11/02/school-violence-cyberbullying-is-a-growing-concern-for-safety-and-mental-well-being/ (дата обращения: 24.01.2026).
  11. Lowry P.B., Moody G.D., Chatterjee S. Using IT Design to Prevent Cyberbullying // Journal of Management Information Systems. 2017. Vol. 34, No. 3. P. 863–901. DOI: 10.1080/07421222.2017.1373012.
  12. Milosevic T., Verma K., Carter M., Vigil S., Laffan D., Davis B., O’Higgins Norman J. Effectiveness of Artificial Intelligence–Based Cyberbullying Interventions From Youth Perspective // Social Media + Society. 2023. January–March. P. 1–12. DOI: 10.1177/20563051221147325.
  13. Santa Clara Principles on Transparency and Accountability in Content Moderation (включая Santa Clara Principles 2.0). URL: https://santaclaraprinciples.org/ (дата обращения: 24.01.2026).
  14. Urman A., Makhortykh M. How transparent are transparency reports? Comparative analysis of transparency reporting across online platforms // Telecommunications Policy. 2023. Vol. 47, Issue 3. Article 102477. URL: https://www.sciencedirect.com/science/article/pii/S0308596122001793 (дата обращения: 24.01.2026).
  15. Wadhwa A. (ed.) Systemic Risk Assessment under the Digital Services Act: A guide for researchers and practitioners. Knight-Georgetown Institute. 2025. URL: https://kgi.georgetown.edu/research/systemic-risk-assessment-under-the-digital-services-act/ (дата обращения: 24.01.2026).
  16. Ray G., McDermott C.D., Nicho M. Cyberbullying on Social Media: Definitions, Prevalence, and Impact Challenges // Journal of Cybersecurity. 2024. Vol. 10, Issue 1. URL: https://academic.oup.com/cybersecurity/article/10/1/tyae027/ (дата обращения: 24.01.2026).
  17. SIBAC. Информация и требования к участникам (оформление статьи и списка литературы). URL: https://sibac.info/conf/philology/cii#info (дата обращения: 24.01.2026).
  18. ГОСТ Р 7.0.5–2008. Библиографическая ссылка. Общие требования и правила составления. URL: https://sibac.info/files//GOSTR_7_0_5_2008.pdf (дата обращения: 24.01.2026).

Проголосовать за статью
Идет голосование
Эта статья набрала 0 голосов (обновление каждые 15 минут)
Дипломы участников
У данной статьи нет
дипломов