Телефон: 8-800-350-22-65
Напишите нам:
WhatsApp:
Telegram:
MAX:
Прием заявок круглосуточно
График работы офиса: с 9:00 до 21:00 Нск (с 5:00 до 19:00 Мск)

Статья опубликована в рамках: CIV Международной научно-практической конференции «Актуальные проблемы юриспруденции» (Россия, г. Новосибирск, 18 марта 2026 г.)

Наука: Юриспруденция

Секция: Теория государства и права

Скачать книгу(-и): Сборник статей конференции

Библиографическое описание:
Маковская П.Н. ЮРИДИЧЕСКИЙ ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ. ОНТОЛОГИЯ ПРИ ПОСТРОЕНИИ НА ОСНОВЕ СИМВОЛЬНОГО ПОДХОДА // Актуальные проблемы юриспруденции: сб. ст. по матер. CIV междунар. науч.-практ. конф. № 3(103). – Новосибирск: СибАК, 2026. – С. 95-99.
Проголосовать за статью
Дипломы участников
У данной статьи нет
дипломов

ЮРИДИЧЕСКИЙ ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ. ОНТОЛОГИЯ ПРИ ПОСТРОЕНИИ НА ОСНОВЕ СИМВОЛЬНОГО ПОДХОДА

Маковская Полина Николаевна

стажер адвоката, Ростовская областная Коллегия адвокатов «Бизнес и право»

РФ, г. Ростов-на-Дону

АННОТАЦИЯ

Статья посвящена рассмотрению онтологии юридического искусственного интеллекта при символьном подходе к его построению. Показано, что использование символьного подхода (в чистом его виде) не приводит к удовлетворительным результатам в смысле свойств создаваемого искусственного интеллекта.

 

Ключевые слова: искусственный интеллект, юридический искусственный интеллект, символьный подход, онтология.

 

В настоящий период принято указывать небольшое количество общенаучных принципов [1, с.46-47], которые должны обеспечить баланс между рекордными вычислительными возможностями ИИ (не обладающего эмпатией и нравственностью), и обеспечением интересов государства и индивида, которое, без сомнений, должно опираться именно на прочный морально-этический фундамент.

К таким общенаучным принципам относят человекоцентричность и гуманистический приоритет, безопасность, рациональность, этичность применения, объяснимость, доступность, недопустимость причинения вреда человеку, справедливость и недискриминационность. В некоторых документах они могут представляться немного по-разному, но общий их смысл остается понятным и неизменным.

Эти принципы хорошо известны, они закреплены в нормативных документах различных государств и описаны в многочисленных исследованиях, в связи с чем в данной статье нет необходимости их повторного обоснования. Такие принципы (будем указывать их как общие) целесообразно использовать безотносительно того, в какой области применяется ИИ, будь то медицина, образование, техника и т.д. Вместе с тем, в каждой из областей человеческой жизни имеются определенные особенности, которые детерминируют свои, особые принципы использования ИИ, которые, в свою очередь, определяются его онтологией. Автора будет интересовать сфера права, и, соответственно, юридический ИИ.

Определение юридического ИИ дано А.И. Овчинниковым, П.Н. Маковской и В.И. Фатхи [2, с.52-62]. В соответствии с этим, под юридическим ИИ будем представлять комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, предназначенные для поддержки, вспомогательного обеспечения либо выполнения ряда действий в правовой сфере, функционирующий с четко определенной степенью автономности, обеспечивающий прозрачность своих выводов, соответствие принципам справедливости и правовой защиты, а также подлежащий специальной сертификации и контролю в целях минимизации рисков для прав и законных интересов участников правоотношений [2, с.52-62].

Если провести анализ источников, описывающих структуру ИИ, то следует выделить два основных подхода, которые можно определить как, соответственно, коннекционистским и символьным (иногда отмечают как символический). Рассмотрим более подробно символьный (символический) подход.

В качестве заметных последних исследований, посвященных описанию символического подхода к описанию ИИ, следует отметить  работы отдельных ученых [3;4].

При этом в исследованиях ученых [3] указаны несколько основных препятствий, мешающих распространению «классического» символического ИИ. К их числу относятся операционная непрозрачность большинства разработанных математических методов и онтологическая непрозрачность терминов естественного языка (имплицитность, нестрогость и многозначность). Кроме того, использованию символического ИИ существенно мешает отсутствие общепринятой абстрактной онтологии окружающей действительности (что не позволяет прийти к согласию в отношении значений понятий привычного мира). Кардинальным препятствием является также феномен, названный «комбинаторным взрывом», когда перебор возможных вариантов в поисках наилучшего решения может занять время большее, чем время жизни  Вселенной. 

Несмотря на указанные принципиальные ограничения, в последнее время интерес к символическому подходу в проблематике ИИ существенно возрос в контексте поиска решений для повышения интерпретируемости результатов. При этом преимущество отдается гибридным архитектурам, в которых символические подходы сочетаются с коннекционистскими [5; 6, с.302-311].

Следует отметить, что поскольку первичные данные в такой гибридной системе обрабатываются на основе коннекционистского подхода, рассмотренного ранее, то гибридные системы ИИ в определенной мере наследуют недостатки нейросетевой архитектуры. Принципиальные недостатки онтологического и гносеологического толка, которыми обладает гибридный онтолого-ориентированный нейросимволический ИИ, предназначенный для использования в юридической сфере, детально рассмотрены в статье автора[6, с.302-311].

В работах отдельных ученых [3] содержится нетривиальная мысль о том, что вообще  нынешняя глухая стена непонимания между человеком и ИИ есть вполне обоснованное следствие того «интеллектуального долга», который накоплен социумом начиная с XIX века (пик господства позитивизма), когда наука фактически отказалась от классического научного метода и ограничилась статистической обработкой экспериментальных данных.  Люди постепенно расслабились и перестали искать объяснения, заменив их на непрозрачные математические абстракции.

Постепенно человечество забыло, что основы всех наук, включая атомную теорию и аксиоматическую геометрию Евклида, были созданы древними греками на основе мысленных экспериментов, то есть путем рассуждений [3]. Продолжая эту мысль, добавим, что правовое мышление современного индивида, являющееся основой правовых решений в ежедневных ситуациях, так же должно опираться на здравый смысл и учения древнегреческих мыслителей типа Платона, а не искать подсказок у бездушного цифрового оракула в виде ИИ [7, с.149-157]. 

В общем-то, практика предвидения «за пределом предсказуемости» [8, с.160-170] с появлением вычислительных машин (а тем более, ИИ) только усилилась,  путем выявления квазизакономерностей на базе эмпирической информации без их осмысления в виде теорий и гипотез.

Следует отметить, что неконтролируемая экспансия систем ИИ в этико-критичные сферы поддерживается беспрецедентным культивированием вообще различных форм «нечеловеческих» внебиологических сущностей и явлений, что находит концентрированное обоснование в трансгуманистической идеологии. При этом очевиден отказ от традиционной антропологии, в основе которой – смертный и двуполый человек, духовно и нравственно преодолевающий библейские грехи, свои ограничения и выпавшие на его долю индивидуальные испытания. В статье А.И. Овчинникова, П.Н. Маковской и В.И. Фатхи [2, с.52-62] по этому поводу указано, что «контекстуальность ИИ долж­на включать и в целом философские, культур­но-исторические, религиозные идеи и собы­тия, учитывать болевые точки человеческого бытия, экзистенциальные смыслы. Ничем по­хожим ИИ не обладает и обладать не может, так как не знает «душевной боли», «физической боли», страха смерти, одиночества и иных сто­рон чисто человеческой жизни».

В работе И.А. Бескова  [9, с.83-92] отмечается, что для ИИ приближение к потенциям человеческой интеллектуальности гипотетически достижимо только при свободной «навигации» в пространстве обучающих данных, которые представляют собой некоторую модель окружающего мира. Помимо того, что такая модель всегда описывает реальность лишь с какой-то конечной точностью, существует проблема «вычленения» и описания для ИИ аксиологических принципов, содержащихся в человеческом обществе [10, с.93-102]. При этом понятно, что формализация (для инсталляции в ИИ) ценностных установок человечества представляет собой на порядки более непростую задачу, нежели описание физической реальности (при всей сложности последней задачи).

Отмечая условно, задача формализации и ввода в ИИ всего массива научных теорий, накопленных человечеством, в области, например, физики или математики, представляется хоть и непомерно трудоемкой, но посильной даже при нынешнем уровне развития техники.

При этом задача формализации и ввода в символический ИИ морально-этических принципов человечества невыполнима даже в постановочном плане, поскольку попытка «математизировать» моральные принципы немедленно низводят их всего лишь до уровня некоторого рационального поведения. Например, исследователи обсуждают возможность алгоритмизации и интеграции в процесс принятия решений ИИ некоторых моральных принципов на основе «четких критериев успеха или функций потерь» [11, с.553-556]. Учеными утверждается, что программирование ИИ на сотрудничество и информационную целостность можно рассматривать как функциональную аналогию человеческой честности, справедливости и взаимности [12, с.553-556]. Нужно ли рассматривать вопрос о том, насколько далеко отстоит подобное вычисляемое поведение ИИ от настоящей морали и нравственности, куда входят необъяснимые и бессмысленные с точки зрения «успеха» феномены человеческой самоотдачи и жертвенности.

Исходя из изложенного выше, напрашивается следующий однозначный вывод: отдельно символьный подход не способен обеспечить создание архитектуры и принципов построения юридического ИИ, который будет адекватен человеческим требованиям, предъявляемым к нему.

Подходы к созданию ЮИИ гибридной архитектуры, а также его свойства и принципы его использования, являются предметом отдельного научного исследования.

 

Список литературы:

  1. Kelley S. Developing an Artificial Intelligence Ethics Governance Checklist foe the Legal Community // AI and Ethics. 2026. Volume 6. Article number 47. Pp 46 - 47.
  2. Овчинников А.И., Маковская П.Н., Фатхи В.И. Юридический искусственный интеллект: понятие, оценка рисков и регулирование // Вестник юридического факультета Южного федерального университета. 2025. № 4. С. 52-62.
  3. Kalmykov V.L., Kalmykov L.V. Towards Explicity Explainable Artificial Intelligence // Information Fusion. 2025. Volume 123.
  4. Новиков Ф.А. Символический искусственный интелект: математические основы представления знаний. – М.: Юрайт. 2025. 279 с.
  5. Bhuyan B.P., Ramdane-Cherif A., Singh T.P., Tomar R. Neuro-Symbolic Artificial Intelligence. Bridging Logic and Learning. – Singapore: Springer Singapore. 2024. 358 p.
  6. Маковская П.Н.Онтолого-ориентированный нейросимволический искусственный интеллект как лакмусовая бумага общефилософских проблем в правоприменении систем ИИ // International Law Journal. 2025. № 8. С. 302 - 311.
  7. Маковская П.Н. Аспекты влияния искусственного интеллекта на правовое сознание // International Law Journal. 2025. № 8. С. 149 - 157.
  8. Пирожкова С.В. Влияние цифровизации на практики научного предвидения: основные эффекты и риски // Вопросы философии. 2024. № 5. С. 160 – 170.
  9. Бескова И.А. Естественный и искусственный интеллект: точки соприкосновения // Вопросы философии. 2023. № 9. С. 83 - 92.
  10. Гаспарян Д.Э., Турко Д.С., Бессчетнова Е.В. Этические ограничения применимости искусственного интеллекта: культурфилософский анализ // Вопросы философии. 2023. № 9. С. 93 - 102.
  11. Hagendorff T., Danks D. Ethical and Methodological Challenges in Building Morally Informed AI Systems // AI and Ethics. 2023. Volume 3. Pp. 553- 556.
  12. Carter E. The Universal Theory of Core Values in Intelligent Systems (UTCVIS): a Systems, Philosophical, and Ethical Inquiry // AI and Ethics. 2026. Volume 6. Article number 107. Pp. 553 - 556.
Проголосовать за статью
Дипломы участников
У данной статьи нет
дипломов