Телефон: 8-800-350-22-65
WhatsApp: 8-800-350-22-65
Telegram: sibac
Прием заявок круглосуточно
График работы офиса: с 9.00 до 18.00 Нск (5.00 - 14.00 Мск)

Статья опубликована в рамках: Научного журнала «Студенческий» № 41(253)

Рубрика журнала: Юриспруденция

Скачать книгу(-и): скачать журнал часть 1, скачать журнал часть 2, скачать журнал часть 3, скачать журнал часть 4, скачать журнал часть 5, скачать журнал часть 6, скачать журнал часть 7, скачать журнал часть 8

Библиографическое описание:
Щербакова А.А. НЕПРАВОМЕРНОСТЬ ИСПОЛЬЗОВАНИЯ ТЕХНОЛОГИЙ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА ПРИ РЕШЕНИИ ПРАВОВЫХ ВОПРОСОВ // Студенческий: электрон. научн. журн. 2023. № 41(253). URL: https://sibac.info/journal/student/253/311163 (дата обращения: 16.05.2024).

НЕПРАВОМЕРНОСТЬ ИСПОЛЬЗОВАНИЯ ТЕХНОЛОГИЙ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА ПРИ РЕШЕНИИ ПРАВОВЫХ ВОПРОСОВ

Щербакова Алина Андреевна

студент, факультет автоматики и вычислительной техники, Новосибирский государственный технический университет,

РФ, г. Новосибирск

Слепцов Василий Алексеевич

научный руководитель,

доц., кафедра правоведения, Новосибирский государственный технический университет,

РФ, г. Новосибирск

TECHNOLOGIES IN SOLVING LEGAL ISSUES

 

Alina Shcherbakova

Student, Faculty of Automation and Computer Engineering, Novosibirsk State Technical University,

Russia, Novosibirsk

Vasily Sleptsov

Scientific supervisor, Associate Professor, Department of Law, Novosibirsk State Technical University,

Russia, Novosibirsk

 

АННОТАЦИЯ

В данной статье рассматривается проблема биаса и несправедливости при принятии решений искусственным интеллектом в правовых вопросах, а также приводятся возможные подходы к их решению.

ABSTRACT

This article discusses the problem of bios and injustice in decision-making by artificial intelligence in legal matters, and also provides possible approaches to their solution.

 

Ключевые слова: искусственный интеллект, юридическая ответственность, биас, искажение данных, алгоритмическая предвзятость.

Keywords: artificial intelligence, legal liability, bias, data distortion, algorithmic bias.

 

Искусственный интеллект (далее – ИИ) становится все более важным инструментом в современном мире, включая его применение в правовой сфере. В первую очередь важно понимать: автоматизация процессов – это уже не новое веяние, а наша действительность. Запрос на автоматизацию становится ключевым и для компаний юридического профиля. [4] Технологии искусственного интеллекта все чаще внедряются в системы, использующиеся в юридической деятельности, для оказания помощи в процессах принятия решений.

Однако было выявлено, что системы ИИ могут наследовать и увековечивать стереотипы, присутствующие в базе данных, на основе которых они обучаются, что может происходить из-за несбалансированности данных, отражающих неравенства и стереотипы в обществе. Когда модель искусственного интеллекта обучается на большом объеме данных, которые содержат стереотипы, она может начать воспроизводить их в своих результатах.

Чтобы решить эту проблему, необходимо активно работать над сбалансированным и разнообразным обучающим набором данных, и проявлять осторожность при применении ИИ моделей, особенно в чувствительных областях, таких как принятие решений о найме, кредитовании или уголовном правосудии. Также важно включать механизмы проверки и контроля, чтобы обнаруживать и исправлять потенциальные предубеждения, возникающие в системах искусственного интеллекта.

Таким образом, принятие ошибочных решений искусственным интеллектом может проявиться в искажении данных и алгоритмической предвзятости: системы искусственного интеллекта полагаются на огромные объемы данных для изучения закономерностей и принятия решений. Если данные обучения содержат стереотипы, такие как расовые или гендерные различия, то система искусственного интеллекта может воспроизвести эти стереотипы в процессе принятия решений. То есть если модель обучается на данных, где мужчины в большей степени представлены в руководящих должностях, чем женщины, то ИИ может склоняться к дискриминационным выводам, считая, что мужчины являются более компетентными для таких должностей, даже если это не соответствует реальности. Следовательно, обучающий набор данных должен быть достаточно разнообразным и представительным, иначе  алгоритмы машинного обучения могут сделать ошибочные выводы.

Следующей из выявленных проблем при обучении ИИ является смещение фокуса внимания модели при формировании обучающего набора данных. Например, при обучении модели распознаванию лиц, если данные для обучения содержат преимущественно изображения людей азиатской внешности, то модель может показывать низкую точность распознавания для людей других национальностей. Т.е. если обучающие данные содержат недостаточное количество информации о лицах другой национальности и об их внешности, то ИИ может делать неточные или предвзятые прогнозы для этих людей. [1, с. 115]

Важно также отметить, что в настоящее время модели ИИ часто основаны на алгоритмах машинного обучения, которые стараются минимизировать любые ошибки. Например, если модель обучается на данных, которые показывают, что определенная расовая группа имеет большую склонность к преступлениям, то алгоритм может считать эту группу более склонной к совершению преступлений в будущем, опираясь только на эти обучающие данные.

В контексте судебных дел, это означает, что алгоритмы машинного обучения, используемые для прогнозирования исходов дел, могут продемонстрировать предвзятость на основе таких факторов, как раса, пол, национальность или социальный статус, что может привести к дискриминационным результатам. [2, с. 60]

Как можно обеспечить устранение ошибок при принятии судебных решений с использованием искусственного интеллекта? Считаем, что тщательная предварительная обработка обучающих данных имеет решающее значение для выявления и устранения судебных ошибок. Это предполагает, что разработчики алгоритмов машинного обучения должны проводить тщательное изучение и очистку данных для предотвращения появления любых дискриминационных выводов в судебных разбирательствах. Кроме того, для обеспечения справедливого принятия решений следует использовать разнообразные наборы данных. Разработчики должны стремиться к прозрачности алгоритмов ИИ для выявления и устранения стереотипов. Алгоритмы с открытым исходным кодом, сторонние аудиты и тщательное тестирование могут помочь выявить и устранить предвзятость в моделях ИИ. Участие междисциплинарных команд, включая специалистов по этике, юристов и социологов, может дать ценную информацию о потенциальных ошибках. [3, с. 156]

Законодателям следует создать нормативную базу для обеспечения этичного использования ИИ при принятии решений, имеющих юридические последствия. Эти нормы помогут решать вопросы предвзятости, подотчетности и прозрачности и решить проблему неправомерности при использовании технологий ИИ в юриспруденции.

 

Список литературы:

  1. Апостолова Н. Н. Ответственность за вред, причиненный искусственным интеллектом // Северо-Кавказский юридический вестник, 2021. – С. 112-120 [дата обращения – 20 октября 2023]
  2. Левченко А. И. Гражданско-правовая ответственность за причинения вреда искусственным интеллектом // Уральский журнал правовых исследований, 2022. – С. 58-62 [дата обращения – 24 октября 2023]
  3. Царькова Е.Г. К вопросу применения искусственного интеллекта в деятельности органа исполнительной власти // Право и управление, 2023. – С. 155-157 [дата обращения – 12 октября 2023]
  4. LegalTech. Автоматизация юридических процессов // ГАРАНТ.РУ: [сайт] – URL: https://www.garant.ru/gardium/guide/avtomatizaciya-yuridicheskoy-deyatelnosti-2022/ [дата обращения – 18 сентября 2023]
Удалить статью(вывести сообщение вместо статьи): 

Оставить комментарий

Форма обратной связи о взаимодействии с сайтом
CAPTCHA
Этот вопрос задается для того, чтобы выяснить, являетесь ли Вы человеком или представляете из себя автоматическую спам-рассылку.