Статья опубликована в рамках: CIV Международной научно-практической конференции «Актуальные проблемы юриспруденции» (Россия, г. Новосибирск, 18 марта 2026 г.)
Наука: Юриспруденция
Секция: Теория государства и права
Скачать книгу(-и): Сборник статей конференции
дипломов
ЮРИДИЧЕСКИЙ ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ. ОНТОЛОГИЯ ПРИ ПОСТРОЕНИИ НА ОСНОВЕ СИМВОЛЬНОГО ПОДХОДА
АННОТАЦИЯ
Статья посвящена рассмотрению онтологии юридического искусственного интеллекта при символьном подходе к его построению. Показано, что использование символьного подхода (в чистом его виде) не приводит к удовлетворительным результатам в смысле свойств создаваемого искусственного интеллекта.
Ключевые слова: искусственный интеллект, юридический искусственный интеллект, символьный подход, онтология.
В настоящий период принято указывать небольшое количество общенаучных принципов [1, с.46-47], которые должны обеспечить баланс между рекордными вычислительными возможностями ИИ (не обладающего эмпатией и нравственностью), и обеспечением интересов государства и индивида, которое, без сомнений, должно опираться именно на прочный морально-этический фундамент.
К таким общенаучным принципам относят человекоцентричность и гуманистический приоритет, безопасность, рациональность, этичность применения, объяснимость, доступность, недопустимость причинения вреда человеку, справедливость и недискриминационность. В некоторых документах они могут представляться немного по-разному, но общий их смысл остается понятным и неизменным.
Эти принципы хорошо известны, они закреплены в нормативных документах различных государств и описаны в многочисленных исследованиях, в связи с чем в данной статье нет необходимости их повторного обоснования. Такие принципы (будем указывать их как общие) целесообразно использовать безотносительно того, в какой области применяется ИИ, будь то медицина, образование, техника и т.д. Вместе с тем, в каждой из областей человеческой жизни имеются определенные особенности, которые детерминируют свои, особые принципы использования ИИ, которые, в свою очередь, определяются его онтологией. Автора будет интересовать сфера права, и, соответственно, юридический ИИ.
Определение юридического ИИ дано А.И. Овчинниковым, П.Н. Маковской и В.И. Фатхи [2, с.52-62]. В соответствии с этим, под юридическим ИИ будем представлять комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, предназначенные для поддержки, вспомогательного обеспечения либо выполнения ряда действий в правовой сфере, функционирующий с четко определенной степенью автономности, обеспечивающий прозрачность своих выводов, соответствие принципам справедливости и правовой защиты, а также подлежащий специальной сертификации и контролю в целях минимизации рисков для прав и законных интересов участников правоотношений [2, с.52-62].
Если провести анализ источников, описывающих структуру ИИ, то следует выделить два основных подхода, которые можно определить как, соответственно, коннекционистским и символьным (иногда отмечают как символический). Рассмотрим более подробно символьный (символический) подход.
В качестве заметных последних исследований, посвященных описанию символического подхода к описанию ИИ, следует отметить работы отдельных ученых [3;4].
При этом в исследованиях ученых [3] указаны несколько основных препятствий, мешающих распространению «классического» символического ИИ. К их числу относятся операционная непрозрачность большинства разработанных математических методов и онтологическая непрозрачность терминов естественного языка (имплицитность, нестрогость и многозначность). Кроме того, использованию символического ИИ существенно мешает отсутствие общепринятой абстрактной онтологии окружающей действительности (что не позволяет прийти к согласию в отношении значений понятий привычного мира). Кардинальным препятствием является также феномен, названный «комбинаторным взрывом», когда перебор возможных вариантов в поисках наилучшего решения может занять время большее, чем время жизни Вселенной.
Несмотря на указанные принципиальные ограничения, в последнее время интерес к символическому подходу в проблематике ИИ существенно возрос в контексте поиска решений для повышения интерпретируемости результатов. При этом преимущество отдается гибридным архитектурам, в которых символические подходы сочетаются с коннекционистскими [5; 6, с.302-311].
Следует отметить, что поскольку первичные данные в такой гибридной системе обрабатываются на основе коннекционистского подхода, рассмотренного ранее, то гибридные системы ИИ в определенной мере наследуют недостатки нейросетевой архитектуры. Принципиальные недостатки онтологического и гносеологического толка, которыми обладает гибридный онтолого-ориентированный нейросимволический ИИ, предназначенный для использования в юридической сфере, детально рассмотрены в статье автора[6, с.302-311].
В работах отдельных ученых [3] содержится нетривиальная мысль о том, что вообще нынешняя глухая стена непонимания между человеком и ИИ есть вполне обоснованное следствие того «интеллектуального долга», который накоплен социумом начиная с XIX века (пик господства позитивизма), когда наука фактически отказалась от классического научного метода и ограничилась статистической обработкой экспериментальных данных. Люди постепенно расслабились и перестали искать объяснения, заменив их на непрозрачные математические абстракции.
Постепенно человечество забыло, что основы всех наук, включая атомную теорию и аксиоматическую геометрию Евклида, были созданы древними греками на основе мысленных экспериментов, то есть путем рассуждений [3]. Продолжая эту мысль, добавим, что правовое мышление современного индивида, являющееся основой правовых решений в ежедневных ситуациях, так же должно опираться на здравый смысл и учения древнегреческих мыслителей типа Платона, а не искать подсказок у бездушного цифрового оракула в виде ИИ [7, с.149-157].
В общем-то, практика предвидения «за пределом предсказуемости» [8, с.160-170] с появлением вычислительных машин (а тем более, ИИ) только усилилась, путем выявления квазизакономерностей на базе эмпирической информации без их осмысления в виде теорий и гипотез.
Следует отметить, что неконтролируемая экспансия систем ИИ в этико-критичные сферы поддерживается беспрецедентным культивированием вообще различных форм «нечеловеческих» внебиологических сущностей и явлений, что находит концентрированное обоснование в трансгуманистической идеологии. При этом очевиден отказ от традиционной антропологии, в основе которой – смертный и двуполый человек, духовно и нравственно преодолевающий библейские грехи, свои ограничения и выпавшие на его долю индивидуальные испытания. В статье А.И. Овчинникова, П.Н. Маковской и В.И. Фатхи [2, с.52-62] по этому поводу указано, что «контекстуальность ИИ должна включать и в целом философские, культурно-исторические, религиозные идеи и события, учитывать болевые точки человеческого бытия, экзистенциальные смыслы. Ничем похожим ИИ не обладает и обладать не может, так как не знает «душевной боли», «физической боли», страха смерти, одиночества и иных сторон чисто человеческой жизни».
В работе И.А. Бескова [9, с.83-92] отмечается, что для ИИ приближение к потенциям человеческой интеллектуальности гипотетически достижимо только при свободной «навигации» в пространстве обучающих данных, которые представляют собой некоторую модель окружающего мира. Помимо того, что такая модель всегда описывает реальность лишь с какой-то конечной точностью, существует проблема «вычленения» и описания для ИИ аксиологических принципов, содержащихся в человеческом обществе [10, с.93-102]. При этом понятно, что формализация (для инсталляции в ИИ) ценностных установок человечества представляет собой на порядки более непростую задачу, нежели описание физической реальности (при всей сложности последней задачи).
Отмечая условно, задача формализации и ввода в ИИ всего массива научных теорий, накопленных человечеством, в области, например, физики или математики, представляется хоть и непомерно трудоемкой, но посильной даже при нынешнем уровне развития техники.
При этом задача формализации и ввода в символический ИИ морально-этических принципов человечества невыполнима даже в постановочном плане, поскольку попытка «математизировать» моральные принципы немедленно низводят их всего лишь до уровня некоторого рационального поведения. Например, исследователи обсуждают возможность алгоритмизации и интеграции в процесс принятия решений ИИ некоторых моральных принципов на основе «четких критериев успеха или функций потерь» [11, с.553-556]. Учеными утверждается, что программирование ИИ на сотрудничество и информационную целостность можно рассматривать как функциональную аналогию человеческой честности, справедливости и взаимности [12, с.553-556]. Нужно ли рассматривать вопрос о том, насколько далеко отстоит подобное вычисляемое поведение ИИ от настоящей морали и нравственности, куда входят необъяснимые и бессмысленные с точки зрения «успеха» феномены человеческой самоотдачи и жертвенности.
Исходя из изложенного выше, напрашивается следующий однозначный вывод: отдельно символьный подход не способен обеспечить создание архитектуры и принципов построения юридического ИИ, который будет адекватен человеческим требованиям, предъявляемым к нему.
Подходы к созданию ЮИИ гибридной архитектуры, а также его свойства и принципы его использования, являются предметом отдельного научного исследования.
Список литературы:
- Kelley S. Developing an Artificial Intelligence Ethics Governance Checklist foe the Legal Community // AI and Ethics. 2026. Volume 6. Article number 47. Pp 46 - 47.
- Овчинников А.И., Маковская П.Н., Фатхи В.И. Юридический искусственный интеллект: понятие, оценка рисков и регулирование // Вестник юридического факультета Южного федерального университета. 2025. № 4. С. 52-62.
- Kalmykov V.L., Kalmykov L.V. Towards Explicity Explainable Artificial Intelligence // Information Fusion. 2025. Volume 123.
- Новиков Ф.А. Символический искусственный интелект: математические основы представления знаний. – М.: Юрайт. 2025. 279 с.
- Bhuyan B.P., Ramdane-Cherif A., Singh T.P., Tomar R. Neuro-Symbolic Artificial Intelligence. Bridging Logic and Learning. – Singapore: Springer Singapore. 2024. 358 p.
- Маковская П.Н.Онтолого-ориентированный нейросимволический искусственный интеллект как лакмусовая бумага общефилософских проблем в правоприменении систем ИИ // International Law Journal. 2025. № 8. С. 302 - 311.
- Маковская П.Н. Аспекты влияния искусственного интеллекта на правовое сознание // International Law Journal. 2025. № 8. С. 149 - 157.
- Пирожкова С.В. Влияние цифровизации на практики научного предвидения: основные эффекты и риски // Вопросы философии. 2024. № 5. С. 160 – 170.
- Бескова И.А. Естественный и искусственный интеллект: точки соприкосновения // Вопросы философии. 2023. № 9. С. 83 - 92.
- Гаспарян Д.Э., Турко Д.С., Бессчетнова Е.В. Этические ограничения применимости искусственного интеллекта: культурфилософский анализ // Вопросы философии. 2023. № 9. С. 93 - 102.
- Hagendorff T., Danks D. Ethical and Methodological Challenges in Building Morally Informed AI Systems // AI and Ethics. 2023. Volume 3. Pp. 553- 556.
- Carter E. The Universal Theory of Core Values in Intelligent Systems (UTCVIS): a Systems, Philosophical, and Ethical Inquiry // AI and Ethics. 2026. Volume 6. Article number 107. Pp. 553 - 556.
дипломов

