Статья опубликована в рамках: XCVIII Международной научно-практической конференции «Актуальные проблемы юриспруденции» (Россия, г. Новосибирск, 17 сентября 2025 г.)
Наука: Юриспруденция
Секция: Гражданское, жилищное и семейное право
Скачать книгу(-и): Сборник статей конференции
дипломов
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ В СИСТЕМЕ ГРАЖДАНСКО-ПРАВОВОГО РЕГУЛИРОВАНИЯ ИНТЕЛЛЕКТУАЛЬНОЙ СОБСТВЕННОСТИ
ARTIFICIAL INTELLIGENCE IN CIVIL-LAW REGULATION OF INTELLECTUAL PROPERTY
Suhrob Boboniyozov
PhD Candidate (3rd-year), Department of Civil Law, Tajik National University,
Republic of Tajikistan, Dushanbe
АННОТАЦИЯ
В статье рассматриваются ключевые гражданско-правовые проблемы, возникающие при вовлечении искусственного интеллекта в сферу интеллектуальной собственности. Цель исследования заключается в выявлении особенностей правового регулирования изобретательской деятельности с использованием технологий ИИ и формулировании практических решений, согласующихся с действующими моделями патентного права. Методологическую основу составили индуктивный анализ, сопоставление судебной и ведомственной практики США, Европейского патентного ведомства, Великобритании и Японии в 2021–2025 гг., а также нормативно-правовой и доктринальный анализ. В результате выделены три основных блока проблем: определение субъектности и возможности признания ИИ изобретателем; установление достаточности раскрытия технических решений при использовании алгоритмов «чёрного ящика»; распределение ответственности за нарушения прав интеллектуальной собственности, совершённые с применением ИИ. На основе проведённого анализа предложены доктринальный тест «существенного человеческого вклада», минимальный стандарт раскрытия для изобретений, созданных с помощью ИИ, комбинированная модель гражданско-правовой ответственности, сочетающая вину и обязательное страхование, а также обязанность ведения логов происхождения (provenance). Сделан вывод о целесообразности сохранения персоналистской модели изобретательства при одновременной адаптации процессуальных стандартов вклада, раскрытия и ответственности, что позволяет обеспечить устойчивость патентной системы без необходимости радикальной смены её парадигмы.
ABSTRACT
The article examines the key civil-law issues arising from the involvement of artificial intelligence in the field of intellectual property. The purpose of the study is to identify the specific features of legal regulation of inventive activity with the use of AI technologies and to formulate practical solutions consistent with existing models of patent law. The methodological framework is based on inductive analysis, comparison of judicial and administrative practice in the United States, the European Patent Office, the United Kingdom, and Japan during 2021–2025, as well as normative and doctrinal analysis. The research identifies three main clusters of problems: the determination of inventorship and the possibility of recognizing AI as an inventor; the establishment of sufficient disclosure of technical solutions created through “black box” algorithms; and the allocation of liability for intellectual property infringements committed with the use of AI. Based on the analysis, the study proposes a doctrinal “substantial human contribution” test, a minimal disclosure standard for AI-assisted inventions, a combined model of civil liability incorporating fault and compulsory insurance, as well as a duty to maintain provenance logs. The conclusion emphasizes the expediency of preserving the human-centered inventorship model while simultaneously adapting procedural standards of contribution, disclosure, and liability, which ensures the stability of the patent system without a radical shift of its paradigm.
Ключевые слова: искусственный интеллект; гражданское право; интеллектуальная собственность; патентное право; изобретательство; достаточность раскрытия; ответственность; комплаенс.
Keywords: artificial intelligence; civil law; intellectual property; patent law; inventorship; enablement; liability; compliance.
Начнём с факта, который определил тон мировых дискуссий. Руководство USPTO по изобретательству для «AI-assisted inventions» (13.02.2024) закрепило картину: изобретателем признаётся только человек; вклад человека «существенный»; один лишь вклад ИИ не порождает изобретательства [2, с. 1-3]. Схожую линию ранее подтвердил Верховный суд Великобритании в деле Thaler v Comptroller-General (20.12.2023): ИИ (DABUS) не может быть указан изобретателем; отсутствие «надлежащего изобретателя» фатально для заявки [3, с. 2-5]. Практика ЕПВ (J 8/20; J 9/20) выдержана в том же ключе: в поле изобретательства допускается только «natural person» [4, с. 10-14]. Японский IP High Court в 2025 г. пришёл к идентичному выводу, акцентировав именно доказуемый творческий вклад человека при ИИ-ассистировании [5, с. 4-7]. На общем фоне показателен обзор Е.В. Купчиной: автор диагностирует разрыв темпов развития ИИ и права ИС, фиксирует коллизию статуса ИИ (инструмент vs. «субъект») и обсуждает модели ответственности (включая страховые решения) [1, с. 49–53].
Индуктивный шаг к обобщению. Эти конвергентные посылки (США, Великобритания, ЕПВ, Япония) выявляют первую проблему субъектность/изобретательство. Аргументы «за» персоналистскую модель: предсказуемость оборота, исключение фикций, привязка прав к носителю воли и вины. Контраргумент: технологическая автономия систем, когда человеческий вклад минимален или носит характер постановки задачи не более. Настаивать на «человеческом авторстве» легко, пока есть чётко верифицируемое творческое решение; существенно труднее, когда результат функция статистического поиска в огромном пространстве параметров. Сам по себе этот спор не новый, но сегодня он вышел в практику ведомств [2; 4].
Вторая проблема достаточность раскрытия (enablement) при «чёрном ящике». Если заявитель использовал ИИ как генератор технического решения, что именно должен раскрыть, чтобы «специалист в области техники» мог воспроизвести результат? Архитектуру модели? Гиперпараметры? Обучающие наборы и цепочки подсказок? И в каком объёме, чтобы не превратить описание в методичку по ML? У Купчиной эта линия намечена как потребность «модификации существующей патентной системы» [1, с. 52], однако конкретный минимальный стандарт раскрытия остаётся открытым.
Третья проблема это распределение ответственности за нарушения прав ИС, совершённые с использованием ИИ. Классическая конструкция вины адресована человеку и организации; автономное поведение систем добавляет «зазор непредвидимости». Обсуждаются гибридные решения: обязательное страхование для высокорисковых ИИ-классов, компенсационные фонды (по аналогии с автогражданкой), договорная аллокация рисков между разработчиком, провайдером платформы и пользователем [1, с. 51–52].
С другой стороны, важно заметить и регуляторный фон ЕС (AI Act, 2024), который прямо не меняет патентное право, но вводит горизонтальные требования к документации, управлению данными и прослеживаемости это усиливает тренд к «доказуемости» человеческого вклада и к формированию минимального enablement для ИИ-опосредованных заявок [6, с. 100–105].
Таблица 1.
Сопоставление ключевых позиций по «изобретательству ИИ» (2021–2025)
|
№ |
Юрисдикция |
Базовая позиция |
Требование к человеческому вкладу |
Особые примечания |
Источники |
|
1 |
США (USPTO) |
Изобретатель - только человек |
«Существенный» вклад (test-based) |
Декларация об ИИ-ассистировании |
[2, с. 1-3] |
|
2 |
Европейское патентное ведомство |
Изобретатель - только человек |
Доказуемый творческий вклад |
DABUS: J 8/20; J 9/20 |
[4, с. 10-14] |
|
3 |
Великобритания (UKSC) |
Изобретатель - только человек |
Строгая персонализация |
Отсутствие изобретателя - отзыв заявки |
[3, с. 2-5] |
|
4 |
Япония (IP High Court) |
Изобретатель - только человек |
Акцент на доказуемость вклада |
Согласование с административной практикой |
[5, с. 4-7] |
Предлагаемые решения. Во-первых, доктринально и процессуально заякорить тест «существенного человеческого вклада» (по сути развивая американский подход): (а) идентификация творческого решения; (б) материализация вклада (документированные итерации, промпты, обоснования выбора); (в) «незаменимость» этого вклада для достижения результата. Итог декларация об ИИ-ассистировании в заявке и право экспертизы затребовать детали [2, с. 2–3]. Во-вторых, закрепить минимальный стандарт раскрытия для ИИ-опосредованных изобретений: функциональная спецификация задачи; сведения о данных (законность источников - отдельно); класс модели и ключевые параметры; воспроизводимая процедура (цепочка шагов/подсказок); границы обобщения. Это не «вскрывает» секреты сверх необходимого, но даёт «специалисту» минимум для реализации обменной функции патента [1, с. 52]. В-третьих, модель ответственности комбинированная: общий стандарт вины и обязательное страхование для определённых классов высокорисковых ИИ-систем; при сложностях с причинностью компенсационный фонд. Экономика риска здесь столь же важна, как и правовая техника [1, с. 51–52].
Чтобы подчеркнуть операционность, сведём «тест вклада» в простую модель (условно-формально):
T = α·H + β·E + γ·P ≥ θ, (1)
где: T - интегральная оценка «существенности» вклада; H - идентифицированное творческое решение человека; E - доказательная материализация (черновики, логи, промпты); P - незаменимость вклада для достижения технического результата; α, β, γ - весовые коэффициенты, определяемые методическими рекомендациями экспертизы; θ - порог достаточности вклада. Понятно, это не математизация права, а «оператор» для эксперта и заявителя, задающий прозрачный язык обоснования. Такой язык, как представляется, снижает конфликтность экспертизы и повышает качество заявок.
Персоналистская модель изобретательства это не «ретроградность», а способ сохранить функции патента (стимул и обмен знаниями) в период экспоненциального роста ИИ. Вместе с тем без процессуальной настройки тестов вклада, стандарта раскрытия, управляемого распределения рисков система будет накапливать фикции и пробелы. Выработанные здесь решения согласуются с линией ведомственной и судебной практики 2021-2025 гг. и доктринальным анализом (ср. Купчина) [1, с. 48–53]; [2; 3; 4; 5; 6].
Заключение
Сопоставление ведомственной и судебной практики США, Великобритании, ЕПВ и Японии за 2021-2025 гг. демонстрирует устойчивый консенсус: изобретательство в патентном праве по-прежнему носит персоналистский характер; изобретателем признаётся только человек, а участие ИИ допустимо лишь как инструментальная помощь, требующая доказуемого «существенного человеческого вклада» [2; 3; 4; 5]. Эта линия, как представляется, не является проявлением догматизма: она сохраняет управляемость гражданско-правового оборота, обеспечивает адресность прав и ответственности и минимизирует фикции, возникающие при попытке «персонализировать» машину.
При этом сохранение персоналистской модели само по себе недостаточно. Масштаб ИИ-опосредованных решений остро ставит вопрос о «достаточности раскрытия» (enablement) там, где результат получен средствами «чёрного ящика». Юридическая функция патента - обмен воспроизводимым знанием - требует минимального, но верифицируемого стандарта раскрытия: функциональная спецификация задачи, законность и общая характеристика данных, класс модели и ключевые параметры, воспроизводимая процедура (включая цепочку шагов/подсказок), границы обобщения. Горизонтальные требования ЕС к документации и логированию (AI Act) задают технологические «якоря» для такого стандарта и тем самым снижают неопределённость экспертизы [6, ст. 11–12].
Не менее важно и распределение гражданско-правовой ответственности за нарушения прав ИС, совершённые с использованием ИИ. Классическая конструкция вины остаётся базовой, однако её следует «поддержать» экономическими механизмами управления риском: обязательным страхованием для отдельных высокорисковых классов ИИ-систем и компенсационными фондами на случай пробелов в причинной связи. Такая связка не подменяет ответственности, но делает её предсказуемой и исполнимой в условиях высокой технической неопределённости [1, с. 51–52].
Предложенный в работе тест «существенного человеческого вклада» (идентификация творческого решения, доказательная материализация, незаменимость) - это процессуальный мост между юридической доктриной и технической реальностью. Его внедрение в виде обязательной декларации об ИИ-ассистировании с правом экспертизы затребовать детали способствует добросовестности заявителей, снижает конфликтность и укрепляет доказательственную базу по делам об изобретательстве [2; 7; 8].
В перспективе ключевой задачей видится мягкая гармонизация подходов через IP5: унификация терминологии («AI-assisted», «significant human contribution»), форм декларации об участии ИИ и минимального перечня элементов раскрытия. Такое выравнивание не требует радикальной реформы гражданского права, но заметно сокращает трансграничные издержки патентования и стимулирует обмен знанием в быстрорастущих кластерах GenAI [2; 4; 6].
Итак, решение выявленной научной проблемы заключается не в предоставлении ИИ статуса изобретателя, а в «настройке» трёх контуров патентной системы: (i) проверяемый стандарт человеческого вклада, (ii) минимальный, но рабочий стандарт enablement для ИИ-опосредованных заявок, (iii) управляемая модель ответственности и рисков, дополненная обязанностью ведения provenance-логов. Именно эта триада позволяет сохранить стимулирующую и обменную функции патента в условиях стремительного технологического сдвига без слома фундаментальных конструкций гражданского права.
Список литературы:
- Купчина Е.В. Искусственный интеллект и интеллектуальная собственность: вопросы правового регулирования патентных отношений // Legal Concept (Правовая парадигма). 2020. Т. 19. № 4. С. 48–54. DOI: https://doi.org/10.15688/lc.jvolsu.2020.4.6. (дата обращения: 10.09.2025).
- United States Patent and Trademark Office. Inventorship Guidance for AI-Assisted Inventions // Federal Register. 2024. 13 Feb. Doc. No. 2024-02623. URL: https://www.federalregister.gov/documents/2024/02/13/2024-02623/inventorship-guidance-for-ai-assisted-inventions (дата обращения: 11.09.2025).
- UK Supreme Court. Thaler (Appellant) v Comptroller-General of Patents, Designs and Trade Marks (Respondent), [2023] UKSC 49. Judgment of 20 Dec 2023. URL: https://www.supremecourt.uk/cases/uksc-2021-0201 (дата обращения: 11.09.2025).
- European Patent Office. Legal Board of Appeal. J 8/20 (Designation of inventor/DABUS), J 9/20. Decisions of 21 Dec 2021. URL: https://www.epo.org/en/boards-of-appeal/decisions/j200008eu1 (дата обращения: 11.09.2025).
- Japan Intellectual Property High Court. Decision on AI Inventorship (DABUS-related). Judgment of 30 Jan 2025. (Официальный текст на японском языке. URL: https://www.ip.courts.go.jp (дата обращения: 11.09.2025)).
- Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on Artificial Intelligence (Artificial Intelligence Act) // Official Journal of the European Union. 2024. L 1689. 12 Jul. P. 1–154. URL: https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:32024R1689 (дата обращения: 12.09.2025).
дипломов


Оставить комментарий