Телефон: 8-800-350-22-65
Напишите нам:
WhatsApp:
Telegram:
MAX:
Прием заявок круглосуточно
График работы офиса: с 9:00 до 21:00 Нск (с 5:00 до 19:00 Мск)

Статья опубликована в рамках: CIV Международной научно-практической конференции «Актуальные вопросы экономических наук и современного менеджмента» (Россия, г. Новосибирск, 04 марта 2026 г.)

Наука: Экономика

Секция: Экономика и управление качеством

Скачать книгу(-и): Сборник статей конференции

Библиографическое описание:
Николаев А.В. ЭКОНОМИЧЕСКИЕ РИСКИ ВНЕДРЕНИЯ АВТОНОМНЫХ ИИ-АГЕНТОВ В КОРПОРАТИВНОЙ СРЕДЕ И МЕХАНИЗМЫ ИХ МИНИМИЗАЦИИ (НА ПРИМЕРЕ ПЛАТФОРМЫ OPENCLAW) // Актуальные вопросы экономических наук и современного менеджмента: сб. ст. по матер. CIV междунар. науч.-практ. конф. № 3(87). – Новосибирск: СибАК, 2026. – С. 117-130.
Проголосовать за статью
Дипломы участников
У данной статьи нет
дипломов

ЭКОНОМИЧЕСКИЕ РИСКИ ВНЕДРЕНИЯ АВТОНОМНЫХ ИИ-АГЕНТОВ В КОРПОРАТИВНОЙ СРЕДЕ И МЕХАНИЗМЫ ИХ МИНИМИЗАЦИИ (НА ПРИМЕРЕ ПЛАТФОРМЫ OPENCLAW)

Николаев Александр Валерьевич

аспирант, Негосударственное образовательное частное учреждение высшего образования Московский университет «Синергия»,

РФ, г. Москва

АННОТАЦИЯ

Статья посвящена оценке экономических рисков внедрения автономных ИИ-агентов в корпоративной среде. Рассматриваются уязвимости агентных систем и связанные с ними финансовые, операционные и репутационные потери. Предложена модель расчета ожидаемого ущерба и обоснованы управленческие меры по минимизации рисков при реализации проектов цифровой трансформации.

ABSTRACT

The article examines the economic risks associated with the implementation of autonomous AI agents in a corporate environment. It analyzes vulnerabilities of agent-based systems and their transformation into financial, operational, and reputational losses. A model for calculating expected loss is proposed, and managerial measures for risk mitigation in digital transformation projects are substantiated.

 

Ключевые слова: автономные ИИ-агенты; цифровая трансформация; экономические риски; информационная безопасность; риск-менеджмент; корпоративная среда; управление изменениями; ожидаемый ущерб; цифровые инновации.

Keywords: autonomous AI agents; digital transformation; economic risks; information security; risk management; corporate environment; change management; expected loss; digital innovation.

 

Введение

В условиях интенсивной цифровой трансформации экономики компании активно внедряют технологии искусственного интеллекта в управленческие и операционные процессы [1, с. 185]. Если на ранних этапах цифровизации организации использовали алгоритмы машинного обучения преимущественно как инструменты аналитической поддержки принятия решений, то на современном этапе происходит переход к более сложным формам автоматизации — автономным ИИ-агентам, способным самостоятельно инициировать действия, взаимодействовать с цифровой инфраструктурой предприятия и адаптироваться к изменяющейся среде.

Автономные ИИ-агенты представляют собой программные системы, которые функционируют без постоянного участия человека, выполняя задачи в рамках заданных целей и ограничений [4]. В корпоративной среде такие агенты применяются для автоматизации стандартных бизнес-процессов: управление документооборотом, обработка клиентских запросов, анализ данных, координация логистических операций, оптимизация закупочной деятельности и иных управленческих функций. Технология демонстрирует высокий потенциал повышения производительности труда, сокращения транзакционных издержек и ускорения принятия решений [7, с. 727].

В настоящее время автономные ИИ-агенты являются одной из наиболее активно развивающихся технологий на рынке цифровых решений, особенно в США, где бизнес-среда традиционно характеризуется высокой скоростью внедрения инноваций. Крупные и средние компании используют агентные ИИ-системы для интеграции с корпоративными информационными системами, автоматизации рутинных операций и повышения эффективности управленческих процедур. Расширение практики их применения сопровождается ростом инвестиций в соответствующие программные продукты и инфраструктуру, что свидетельствует о стратегическом характере данной технологии для бизнеса.

Одновременно с этим внедрение автономных ИИ-агентов связано с новыми типами рисков, которые ранее в аналогичном масштабе не проявлялись в корпоративных системах управления. В отличие от традиционных программных решений, действующих по строго заданному алгоритму, автономные агенты обладают определенной степенью самостоятельности в выборе последовательности действий и использовании доступных ресурсов. Это создает дополнительные угрозы информационной безопасности, контроля доступа и управляемости процессов.

Технические уязвимости таких систем могут трансформироваться в значимые экономические последствия. Некорректное выполнение операций, несанкционированный доступ к корпоративным данным, обход ограничений, ошибочные транзакции или взаимодействие с внешними ресурсами без должного контроля способны привести к прямым финансовым потерям, штрафным санкциям со стороны регуляторов, нарушению договорных обязательств и репутационному ущербу. В условиях высокой цифровой интеграции даже единичный инцидент способен повлиять на устойчивость экономической системы предприятия.

Особую сложность представляет то обстоятельство, что риски автономных ИИ-агентов носят комплексный характер. Они затрагивают одновременно технологическую, организационную и экономическую плоскости. В рамках управления изменениями руководство компании сталкивается с необходимостью балансировать между ожидаемым экономическим эффектом от внедрения инновации и потенциальными потерями, связанными с уязвимостями системы. При этом отсутствие достаточного эмпирического опыта эксплуатации автономных ИИ-агентов в корпоративной среде затрудняет формирование обоснованных управленческих решений.

В научной литературе вопросы цифровой трансформации, риск-менеджмента и информационной безопасности рассматриваются достаточно широко, однако проблема оценки именно экономических рисков автономных ИИ-агентов как самостоятельного объекта управления остается недостаточно разработанной. Чаще всего исследования сосредоточены либо на техническом анализе уязвимостей, либо на общих вопросах цифровизации бизнеса, без построения прикладной модели оценки экономических последствий. В результате формируется методологический разрыв между техническим анализом угроз и управленческим принятием решений.

В условиях усиления конкуренции и ускорения технологических изменений предприятия вынуждены внедрять инновационные решения в сжатые сроки. Это повышает вероятность неполной оценки рисков и недооценки потенциальных экономических последствий. Таким образом, возникает научная и практическая проблема разработки инструментов оценки экономических рисков, связанных с внедрением автономных ИИ-агентов, а также определения механизмов их минимизации в корпоративной среде.

Объектом исследования выступают процессы внедрения автономных ИИ-агентов в корпоративные экономические системы.

Предметом исследования являются экономические риски, возникающие в результате использования автономных ИИ-агентов, а также управленческие механизмы их минимизации.

Целью исследования является разработка подхода к оценке экономических рисков внедрения автономных ИИ-агентов в корпоративной среде и обоснование механизмов их минимизации.

Для достижения поставленной цели предполагается решение следующих задач:

  1. Проанализировать специфику автономных ИИ-агентов как объекта управления изменениями.
  2. Выявить основные группы экономических рисков, возникающих при их внедрении.
  3. Рассмотреть уязвимости платформы OpenClaw как пример трансформации технических угроз в экономические последствия.
  4. Сформировать модель оценки ожидаемого экономического ущерба.
  5. Обосновать управленческие меры по снижению рисков и оценить их экономическую целесообразность.

Рабочая гипотеза исследования заключается в предположении о том, что экономический эффект от внедрения автономных ИИ-агентов может быть существенно нивелирован при отсутствии системной оценки и управления рисками информационной безопасности, тогда как интеграция механизмов контроля и превентивной защиты позволяет обеспечить положительный совокупный экономический результат.

Таким образом, рассматриваемая проблема находится на пересечении теории управления изменениями, экономики цифровых инноваций и риск-менеджмента, что определяет ее актуальность и научную значимость в условиях расширяющегося применения автономных ИИ-технологий в корпоративной практике.

Теоретические основы оценки экономических рисков цифровых инноваций

Развитие цифровых технологий трансформирует не только производственные и управленческие процессы, но и саму природу экономических рисков [5, с. 84]. Внедрение цифровых инноваций характеризуется высокой степенью неопределенности, что обусловлено быстрым технологическим обновлением, зависимостью от сложной ИТ-инфраструктуры и ограниченной предсказуемостью поведения интеллектуальных систем. В этих условиях оценка экономических рисков приобретает стратегическое значение в рамках управления изменениями.

Экономический риск как категория управления

В экономической теории риск традиционно трактуется как вероятность отклонения фактических результатов от ожидаемых при наличии альтернативных решений и неопределенности внешней среды [1, с. 187]. В управленческой практике риск рассматривается как вероятность наступления события, способного повлиять на достижение целей организации, сопровождаемого потенциальными потерями ресурсов.

Применительно к цифровым инновациям риск приобретает специфические характеристики:

  • высокая технологическая сложность объекта;
  • зависимость от программных архитектур и сетевой инфраструктуры;
  • масштабируемость последствий инцидента;
  • асимметрия информации между разработчиком, внедряющей организацией и конечным пользователем.

Экономический риск в данном контексте представляет собой вероятность возникновения финансовых потерь, обусловленных технологическими сбоями, ошибками алгоритмов, нарушениями информационной безопасности либо некорректной интеграцией инновационного решения в действующую систему управления.

Специфика рисков цифровых инноваций

Цифровые инновации отличаются от традиционных инвестиционных проектов рядом особенностей. Во-первых, значительная часть их стоимости носит нематериальный характер (программное обеспечение, алгоритмы, интеллектуальные модели). Во-вторых, эффект от внедрения часто проявляется через косвенные показатели — ускорение процессов, повышение точности прогнозирования, снижение транзакционных издержек.

При этом негативные последствия могут быть выражены как в прямых финансовых потерях (штрафы, убытки, компенсации), так и в косвенных — утрате деловой репутации, снижении доверия контрагентов, сокращении рыночной стоимости компании.

Особое значение имеет фактор киберриска, который в цифровой экономике становится системным. Нарушение информационной безопасности способно не только вызвать разовый ущерб, но и подорвать устойчивость бизнес-модели предприятия [6, с. 82]. Таким образом, оценка рисков цифровых инноваций должна учитывать не только вероятностный характер событий, но и их потенциальную масштабируемость.

Автономные ИИ-агенты как источник специфических экономических рисков

Автономные ИИ-агенты представляют собой особый класс цифровых инноваций. В отличие от традиционных автоматизированных систем, они способны самостоятельно формировать последовательность действий, взаимодействовать с внешними цифровыми сервисами и инициировать операции без прямого контроля человека.

С экономической точки зрения это означает расширение зоны ответственности алгоритма. Если при использовании классического программного обеспечения ошибка чаще всего ограничивается конкретной функцией, то автономный агент может затронуть несколько бизнес-процессов одновременно. В результате возрастает вероятность каскадных эффектов, при которых единичная уязвимость приводит к цепочке управленческих и финансовых последствий.

Экономические риски автономных ИИ-агентов можно классифицировать следующим образом:

  1. Финансовые риски — прямые убытки вследствие ошибочных операций или несанкционированных действий.
  2. Правовые риски — штрафы и санкции за нарушение требований по защите данных и регуляторных норм.
  3. Репутационные риски — снижение доверия клиентов и партнеров.
  4. Операционные риски — сбои в ключевых бизнес-процессах.
  5. Стратегические риски — подрыв долгосрочных конкурентных преимуществ.

Такая классификация позволяет перевести техническую проблему уязвимости в плоскость экономического анализа.

Методологические подходы к оценке экономических рисков

В экономической науке и практике риск-менеджмента используется ряд инструментов оценки риска. К числу базовых относится расчет ожидаемого ущерба (Expected Loss), который определяется как произведение вероятности наступления события на величину возможного ущерба [3]. Данный подход позволяет количественно сопоставить потенциальные потери и стоимость превентивных мер.

Помимо этого применяются:

  • сценарный анализ;
  • анализ чувствительности;
  • экспертная оценка вероятностей;
  • метод «затраты – выгоды» (cost–benefit analysis);
  • оценка совокупной стоимости владения (Total Cost of Ownership).

В контексте цифровых инноваций особую роль играет сопоставление инвестиционного эффекта от внедрения технологии и величины потенциальных потерь при реализации рисков. Если ожидаемый экономический эффект снижается ниже порогового значения вследствие учета рисков, проект может утратить инвестиционную привлекательность.

Информационная безопасность как экономический фактор

Информационная безопасность в корпоративной среде выступает не только технической, но и экономической категорией. Затраты на обеспечение безопасности следует рассматривать как инвестиции в снижение вероятности и масштаба потенциального ущерба.

Экономическая целесообразность мер защиты определяется сопоставлением:

  • стоимости внедрения механизмов контроля;
  • величины снижения ожидаемого ущерба;
  • влияния мер безопасности на эффективность бизнес-процессов.

Таким образом, управление рисками автономных ИИ-агентов должно строиться на принципе оптимальности: уровень защиты должен обеспечивать минимизацию совокупных издержек, включающих как потенциальные потери, так и расходы на их предотвращение.

Роль оценки рисков в управлении изменениями

Внедрение автономных ИИ-агентов является формой организационного изменения, затрагивающего структуру процессов, распределение ответственности и систему контроля. В рамках управления изменениями оценка экономических рисков выполняет следующие функции:

  • обоснование инвестиционного решения;
  • снижение неопределенности при внедрении инновации;
  • формирование системы превентивного контроля;
  • поддержание устойчивости экономической системы предприятия.

Игнорирование рисков на этапе внедрения может привести к снижению доверия к инновациям в целом и замедлению цифровой трансформации организации. Напротив, системная оценка и управление рисками позволяют интегрировать автономные ИИ-технологии в корпоративную среду без существенного ущерба для экономической устойчивости.

Таким образом, теоретический анализ показывает, что автономные ИИ-агенты следует рассматривать как источник специфических экономических рисков, требующих применения инструментов количественной оценки и управленческого контроля. Формирование методики расчета ожидаемого ущерба и сопоставление его с инвестиционным эффектом от внедрения технологии создают основу для принятия обоснованных управленческих решений в условиях цифровой трансформации.

Характеристика уязвимостей автономных ИИ-агентов (на примере платформы OpenClaw)

Автономные ИИ-агенты функционируют на стыке алгоритмических моделей, корпоративной информационной инфраструктуры и внешних цифровых сервисов. Такая архитектурная сложность формирует дополнительные точки потенциальной уязвимости. В отличие от традиционных программных решений, которые выполняют строго регламентированные операции, агентные системы обладают способностью самостоятельно интерпретировать задачи, выбирать инструменты их реализации и инициировать действия в цифровой среде.

Платформа OpenClaw, рассматриваемая в рамках настоящего исследования как пример агентной архитектуры, используется для построения автономных ИИ-агентов, способных выполнять комплексные операции в информационных системах. Анализ доступных описаний уязвимостей подобных платформ показывает, что ключевые риски связаны не столько с ошибками программного кода в классическом понимании, сколько с особенностями взаимодействия модели с внешней средой.

К числу типичных уязвимостей автономных ИИ-агентов относятся:

  1. Манипуляция входными данными (prompt injection) — возможность изменения логики поведения агента через специально сформированные инструкции, полученные из внешних источников.
  2. Неконтролируемое выполнение команд — инициирование действий в корпоративных системах без достаточной верификации.
  3. Расширение зоны доступа — использование агентом прав, выходящих за пределы необходимого функционала.
  4. Интеграционные уязвимости — ошибки при взаимодействии с API, базами данных и внутренними сервисами компании.
  5. Ошибочная интерпретация бизнес-контекста — принятие решений без учета экономических ограничений и регламентов.

С технической точки зрения данные уязвимости связаны с архитектурой автономного взаимодействия и особенностями обучения моделей. Однако в рамках настоящего исследования принципиально важно рассматривать их не как исключительно ИТ-проблему, а как источник экономических последствий.

Экономическая трансформация технической уязвимости происходит через механизм ущерба. Например, неконтролируемое выполнение агентом операций может привести к ошибочным финансовым транзакциям, несанкционированному изменению данных или нарушению договорных обязательств. Манипуляция входными инструкциями способна вызвать раскрытие конфиденциальной информации, что влечет штрафные санкции и репутационные потери.

Особенностью автономных ИИ-агентов является возможность каскадного эффекта: единичная уязвимость способна инициировать цепочку взаимосвязанных действий в разных сегментах корпоративной системы. В условиях высокой цифровой интеграции это повышает масштаб потенциального ущерба.

Таким образом, уязвимости платформы OpenClaw и аналогичных агентных систем следует рассматривать как экономически значимые факторы риска, влияющие на устойчивость и финансовые результаты деятельности предприятия. Их анализ создает основу для последующей количественной оценки ожидаемого ущерба и разработки механизмов минимизации.

Методика оценки экономического риска внедрения автономных ИИ-агентов

Оценка экономического риска внедрения автономных ИИ-агентов должна строиться на сопоставлении потенциальных потерь и ожидаемого эффекта от использования технологии. Методологической основой выступает вероятностный подход, позволяющий количественно оценить возможный ущерб при различных сценариях развития событий.

Формирование модели оценки

Предлагаемая модель базируется на расчете ожидаемого экономического ущерба (Expected Loss), который определяется по формуле:

EL = P × L                                                                                            (1),

где

P — вероятность реализации риска,

L — величина потенциального ущерба при наступлении события.

Для комплексной оценки совокупный риск определяется как сумма ожидаемых потерь по всем идентифицированным группам рисков:

ELₜ = Σ (Pᵢ × Lᵢ)                                                                                              (2),

где i — конкретный тип риска (финансовый, правовой, операционный и др.).

Такой подход позволяет перейти от качественного описания угроз к количественной оценке их влияния на экономическую устойчивость предприятия.

Сценарный анализ

Для целей управленческого решения целесообразно рассматривать не менее двух сценариев:

  1. Сценарий А — внедрение без дополнительных механизмов контроля.

    В данном случае вероятность реализации рисков выше, а ожидаемый ущерб рассчитывается исходя из базовой архитектуры системы.
  2. Сценарий Б — внедрение с интеграцией механизмов минимизации рисков.

    Предполагается использование дополнительных мер: разграничение прав доступа, аудит действий агента, логирование операций, ограничение автономности, многофакторная верификация критических транзакций.

Сравнение значений ELₜ по каждому сценарию позволяет определить экономическую целесообразность инвестиций в безопасность.

Оценка экономической эффективности защитных мер

Экономическая эффективность механизмов минимизации риска может быть определена через показатель сокращения ожидаемого ущерба:

ΔEL = ELₐ − ELᵦ                                                                                              (3),

где

ELₐ — ожидаемый ущерб без защитных мер,

ELᵦ — ожидаемый ущерб после их внедрения.

Если стоимость внедрения системы контроля (Cₛ) ниже величины ΔEL, инвестиции в безопасность являются экономически обоснованными.

Дополнительно может быть рассчитан интегральный эффект внедрения технологии с учетом рисков:

Eₙ = BI EL                                                                                             (4),

где

B — ожидаемый экономический эффект от внедрения ИИ-агентов,

I — инвестиционные затраты на внедрение,

EL — совокупный ожидаемый ущерб.

Положительное значение Eₙ свидетельствует о целесообразности проекта с учетом риск-фактора.

Ограничения модели

Следует учитывать, что оценка вероятности реализации рисков в условиях новых технологий носит во многом экспертный характер. Отсутствие длительной статистики эксплуатации автономных ИИ-агентов ограничивает точность расчетов. Кроме того, репутационные и стратегические потери трудно поддаются прямой количественной оценке и требуют использования косвенных показателей.

Тем не менее даже приближенная оценка позволяет структурировать процесс принятия решения и избежать игнорирования экономических последствий уязвимостей.

Таким образом, предложенная методика создает инструментальную основу для управленческой оценки рисков внедрения автономных ИИ-агентов. Она позволяет интегрировать анализ уязвимостей в систему корпоративного планирования и обосновывать решения в рамках управления изменениями на основе количественных показателей, а не исключительно экспертных суждений.

Механизмы минимизации экономических рисков внедрения автономных ИИ-агентов

Управление экономическими рисками автономных ИИ-агентов предполагает комплексный подход, сочетающий организационные, технологические и управленческие меры. Особенность данных рисков заключается в их междисциплинарном характере: они формируются на пересечении алгоритмической автономности, цифровой инфраструктуры и экономических процессов предприятия. Следовательно, минимизация рисков должна быть встроена в систему корпоративного управления, а не ограничиваться техническими средствами защиты.

Организационные меры

Организационные механизмы направлены на формирование регламентированной среды эксплуатации автономных ИИ-агентов. К их числу относятся:

  • разработка внутренних нормативных документов, определяющих пределы автономности агента;
  • закрепление зон ответственности за результаты его функционирования;
  • создание процедур согласования критически значимых операций;
  • внедрение политики разграничения доступа к данным и сервисам;
  • регулярный аудит алгоритмических решений.

В рамках управления изменениями важным элементом является обучение персонала принципам взаимодействия с автономными системами. Недостаточная осведомленность сотрудников повышает вероятность некорректной эксплуатации и, как следствие, экономических потерь.

Технологические меры

Технологические инструменты минимизации рисков включают:

  • многоуровневую систему авторизации и аутентификации;
  • ограничение прав доступа по принципу минимальной достаточности;
  • журналирование действий агента (логирование);
  • внедрение механизмов «человека в контуре» (human-in-the-loop) для подтверждения критических транзакций;
  • изоляцию среды выполнения (sandboxing) при взаимодействии с внешними источниками данных;
  • регулярное тестирование на уязвимости.

Экономический смысл данных мер заключается в снижении вероятности реализации неблагоприятного сценария (P) либо в уменьшении масштаба ущерба (L). Таким образом, инвестиции в технологические механизмы безопасности непосредственно влияют на величину ожидаемого ущерба (EL).

Управленческие инструменты контроля

С точки зрения стратегического управления внедрение автономных ИИ-агентов должно сопровождаться включением их в систему корпоративного риск-менеджмента. Это предполагает:

  • идентификацию рисков на этапе планирования проекта;
  • оценку допустимого уровня риска (risk appetite);
  • формирование системы ключевых индикаторов риска (KRI);
  • мониторинг эффективности мер защиты;
  • корректировку уровня автономности агента при выявлении отклонений.

Важным аспектом является сопоставление ожидаемого экономического эффекта от внедрения ИИ-агента с совокупными издержками, включая расходы на обеспечение безопасности. Оптимальный уровень защиты определяется не максимизацией контроля, а минимизацией совокупных издержек предприятия.

Экономическая целесообразность мер минимизации

Экономическая эффективность защитных мероприятий определяется через сопоставление их стоимости с величиной сокращения ожидаемого ущерба (ΔEL). Если затраты на внедрение системы контроля ниже прогнозируемого снижения потерь, меры являются обоснованными.

При этом необходимо учитывать долгосрочный эффект. Снижение вероятности крупного инцидента может повысить устойчивость бизнес-модели, сохранить доверие контрагентов и обеспечить стабильность финансовых потоков. Следовательно, оценка должна носить не только краткосрочный, но и стратегический характер.

Таким образом, минимизация экономических рисков автономных ИИ-агентов требует системного подхода, сочетающего регламентацию процессов, технологическую защиту и интеграцию контроля в управленческую модель предприятия.

Выводы

В ходе исследования установлено, что автономные ИИ-агенты являются одной из наиболее динамично внедряемых цифровых технологий в корпоративной среде. Их применение позволяет повысить эффективность бизнес-процессов, сократить транзакционные издержки и ускорить принятие решений. Одновременно с этим автономность алгоритмов формирует специфические экономические риски, связанные с возможными уязвимостями, ошибочными действиями и нарушением информационной безопасности.

Проведенный анализ показал, что технические уязвимости платформ агентного типа трансформируются в экономические последствия через механизм прямых финансовых потерь, правовых санкций, операционных сбоев и репутационного ущерба. Особенность данных рисков заключается в их потенциальной масштабируемости и возможности каскадного распространения в рамках интегрированной корпоративной системы.

Предложенная методика оценки на основе расчета ожидаемого ущерба позволяет количественно сопоставить потенциальные потери и инвестиции в меры защиты. Использование сценарного анализа создает основу для обоснования управленческих решений в условиях неопределенности.

Рабочая гипотеза исследования получила подтверждение: экономический эффект от внедрения автономных ИИ-агентов может быть существенно снижен при отсутствии системной оценки и управления рисками, тогда как интеграция механизмов контроля и превентивной защиты позволяет обеспечить положительный совокупный результат.

Практическая значимость работы заключается в формировании подхода к оценке экономических рисков автономных ИИ-агентов, который может быть использован предприятиями при реализации проектов цифровой трансформации.

Перспективы дальнейших исследований связаны с накоплением эмпирических данных об эксплуатации автономных агентных систем, уточнением методов количественной оценки репутационных и стратегических потерь, а также разработкой отраслевых моделей оценки риска.

 

Список литературы:

  1. Алексеев В. Н., Зуев Ф. А. Риски развития искусственного интеллекта в отдельных отраслях экономики России // Проблемы экономики и юридической практики. 2023. Т. 19, № 3. С. 185–191.
  2. Ефимова М. В., Перфильев А. А. Искусственный интеллект и динамика рынка труда: проблемы занятости и перспективы развития экономики России // Экономика: вчера, сегодня, завтра. 2025. Т. 15, № 1А. С. 43–51.
  3. Дранев Ю. Я., Кучин И. И., Миряков М. И. Экономический эффект от внедрения технологий искусственного интеллекта в России / Институт статистических исследований и экономики знаний НИУ ВШЭ. 2025.
  4. Кусков Е. С. Влияние искусственного интеллекта на инвестиционные стратегии: анализ рисков и возможностей // Международный научно-исследовательский журнал. 2025. № 8 (158).
  5. Маркин М. И. Цифровая трансформация промышленных предприятий: экономический аспект // Теоретическая экономика. 2025. № 9. С. 80–93.
  6. Нурыйахметова С. М., Гафарова О. И., Талхигова Х. С. Роль искусственного интеллекта в реализации стратегии «умной экономики» и «цифрового государства»: экономические и социальные эффекты // Экономика и управление: проблемы, решения. 2025. С. 78–86.
  7. Щепакин М. Б., Хандамова Э. Ф., Ксензова Г. В. Искусственный интеллект в зеркале инновационных изменений // Вопросы инновационной экономики. 2023. Т. 13, № 2. С. 727–748.
Проголосовать за статью
Дипломы участников
У данной статьи нет
дипломов