Статья опубликована в рамках: CLXI Международной научно-практической конференции «Научное сообщество студентов XXI столетия. ТЕХНИЧЕСКИЕ НАУКИ» (Россия, г. Новосибирск, 07 мая 2026 г.)
Наука: Информационные технологии
Скачать книгу(-и): Сборник статей конференции
дипломов
ТЕХНОЛОГИЧЕСКИЕ АСПЕКТЫ СОАВТОРСТВА ИИ В НАУЧНЫХ ИССЛЕДОВАНИЯХ: ОБЗОР АРХИТЕКТУР, ПРОТОКОЛОВ И ИНСТРУМЕНТОВ
TECHNOLOGICAL ASPECTS OF AI CO-AUTHORSHIP IN SCIENTIFIC RESEARCH: A REVIEW OF ARCHITECTURES, PROTOCOLS AND TOOLS
Troinikova Maria Dmitrievna
Student, Department of Information Technologies and Intelligent Systems, Kazan State Power Engineering University,
Russia, Kazan
Nadezhdina Maria Evgenievna
Scientific supervisor, Candidate of Technical Sciences, Kazan State Power Engineering University,
Russia, Kazan
АННОТАЦИЯ
В статье представлен систематический обзор технологических аспектов использования больших языковых моделей (LLM) в роли соавтора научных исследований. Актуальность работы обусловлена активным внедрением генеративного искусственного интеллекта в публикационные практики российских аспирантов и студентов. Цель обзора — систематизация архитектурных решений, протоколов взаимодействия человека и ИИ, существующих программных ассистентов, а также выявление технических ограничений и перспективных направлений развития. В работе анализируются архитектуры LLM-агентов, включающие модули памяти, планирования и внешних вызовов. Рассматриваются протоколы взаимодействия, требующие управления целями и фиксации вклада ИИ. Проводится сравнение ChatGPT, DeepSeek и GPT-3.5, выявляются проблемы галлюцинаций, недетерминизма и стоимости API. Обсуждаются перспективы специализированных научных LLM, децентрализованного соавторства и стандартизации метаданных на основе системы CRediT. Делается вывод о необходимости разработки эталонной архитектуры ИИ-соавтора, обеспечивающей воспроизводимость, объяснимость и экономическую доступность.
ABSTRACT
The article presents a systematic review of technological aspects of using large language models (LLMs) as a co-author in scientific research. The relevance of the work is due to the active introduction of generative artificial intelligence into the publication practices of Russian graduate and undergraduate students. The purpose of the review is to systematize architectural solutions, human-AI interaction protocols, existing software assistants, as well as to identify technical limitations and promising development directions. The paper analyzes the architectures of LLM agents, including memory modules, planning, and external calls. Interaction protocols requiring goal management and recording of AI contribution are considered. A comparison of ChatGPT, DeepSeek, and GPT-3.5 is carried out; the problems of hallucinations, non-determinism, and API costs are identified. Prospects for specialized scientific LLMs, decentralized co-authorship, and standardization of metadata based on the CRediT system are discussed. The conclusion is made about the need to develop a reference architecture of an AI co-author that ensures reproducibility, explainability, and economic affordability.
Ключевые слова: искусственный интеллект; большие языковые модели; LLM-агенты; соавторство; галлюцинации; ChatGPT; DeepSeek; протоколы взаимодействия; система CRediT.
Keywords: artificial intelligence; large language models; LLM agents; co-authorship; hallucinations; ChatGPT; DeepSeek; interaction protocols; CRediT system.
1. Введение
В последние два-три года большие языковые модели (LLM) начинают систематически использоваться в научной деятельности. Коваль и соавторы [1] опросили российских аспирантов и выяснили: генеративный ИИ используется как «ассистент в кармане» – для подбора литературы, формулировки гипотез, обработки данных и даже написания кусков текста. В научном сообществе сложились две основные позиции: одни исследователи настаивают на полном запрете использования LLM, другие — на интеграции ИИ в образовательный процесс.
Сысоев и Филатов [2] прямо заявляют: запрет не поможет, нужны новые методики обучения, которые учитывают возможности ChatGPT. Маляревич [3] добавляет, что взаимодействие науки и ИИ уже сложилось в устойчивые паттерны, и их пора систематизировать. А Янукович [4] вводит термин «цифровой соавтор» и размышляет, как ИИ меняет саму природу творчества и научного смысла.
Цель данной работы — систематизация технологических подходов к ИИ-соавторству в науке. Для этого надо разобрать архитектуры, протоколы взаимодействия, существующие инструменты, а также посмотреть на ограничения и перспективы. Конкретные задачи: анализ архитектур LLM-агентов, описание протоколов «человек – ИИ», обзор ассистентов, выявление технических проблем и обсуждение стандартизации.
2. Архитектурные паттерны ИИ-соавторов
Прежде чем говорить о соавторстве, надо понять, как устроен ИИ-агент. Намиот и Ильюшин [5] предлагают классификацию архитектур LLM-агентов. Они выделяют несколько уровней: моделирование среды, планирование действий, управление памятью, подключение внешних инструментов. Важно, что агент – это не просто языковая модель. У него есть модули семантической памяти, механизмы рефлексии и исполнительные компоненты. Именно эти компоненты позволяют ИИ не только генерировать текст, но и выступать в роли активного участника исследования.
Статья Бурилиной и Ахмадеева [6] – она вышла ещё до бума генеративных моделей, но в ней анализируются архитектуры децентрализованных агент-ориентированных систем. Авторы показывают, что рефлексивные агенты и агенты с внутренним состоянием вполне применимы для распределённого соавторства (человек + ИИ +, скажем, второй исследователь). Несмотря на давность публикации, предложенные в [6] принципы сохраняют актуальность для современных систем.
Искандарова [7] пишет про ИИ-агентов в корпоративном управлении, но её выводы полезны и для науки. Особенно про гибридные архитектуры: символьный подход плюс машинное обучение. Плюс она подчеркивает важность модуля объяснений – чтобы агент мог рассказывать, почему он предложил то или иное решение. Для научного соавтора объяснимость критична: исследователь должен понимать логику ИИ.
Таким образом, архитектурный паттерн «ИИ-соавтор» может быть определён как LLM-агент с долговременной памятью (журнал взаимодействий), планировщиком задач (разбить исследование на этапы) и возможностью вызывать внешние функции (поиск статей, расчёты). Отдельные компоненты уже реализованы в разных фреймворках, однако интеграция перечисленных компонентов в единую этически приемлемую систему на сегодняшний день остается нерешенной задачей.
3. Протоколы взаимодействия «человек – ИИ-соавтор»
Вопреки распространенному представлению, взаимодействие с LLM не сводится к примитивной последовательности «запрос — ответ». Карташёва [9] предлагает смотреть на диалог с моделью как на автокоммуникацию. Это означает, что сообщение, отправленное человеком, возвращается к нему обогащенным новыми смыслами, порожденными моделью. Иными словами, ИИ не просто отвечает, а помогает человеку думать иначе.
Практически это выливается в осознанное управление целями и взаимную подстройку. Паленова и Воронин [8] вводят понятия goal management и mutual verbal adaptation. Они показывают: эффективное соавторство требует не просто грамотных запросов, а цепочки последовательных подзадач с обратной связью на каждом шаге. А модель, в свою очередь, привыкает к стилю и лексикону конкретного человека.
Деникин [10] рассуждает шире – о переходе от прямого управления к «общению» с алгоритмическими партнерами. А это уже требует фиксации того, кто что сделал. Возникает вопрос: как технически записать вклад ИИ? Например, можно сохранять журнал промптов и ответов модели в виде хешированного файла и прикладывать к статье как дополнительный материал. Пока такого стандарта нет.
С протокольной точки зрения взаимодействие распадается на три фазы. Сначала человек ставит задачу. Потом модель генерирует предложения. Затем человек критикует, уточняет, отправляет на доработку. Технически всё это реализуется через API с настройкой температуры, top_p и системных сообщений, где можно прописать роль («ты – придирчивый рецензент» или «ты – эксперт по статистике»).
4. Обзор существующих программируемых ассистентов и платформ
Наиболее распространенным инструментом данного типа является ChatGPT. Коган и Иванов [11] задались вопросом: способен ли ChatGPT написать научную статью? Или это просто имитация, игра? Их вывод: современные версии GPT генерируют структурно верные и даже библиографически правдоподобные тексты. Но проблема – галлюцинации, то есть выдуманные факты и несуществующие ссылки.Для научной работы такие ошибки являются критическими и недопустимыми. Значит, ChatGPT может быть соавтором только при условии, что человек всё перепроверяет.
Джибилова и Побываев [12] анализировали применение ChatGPT в политике и социальной сфере, но заодно отметили: эффективность модели сильно зависит от того, насколько хорошо пользователь умеет формулировать промпты и распознавать ошибки. То есть соавторство – это навык, которому надо учить.
В исследовании Савкиной [13] проведён сравнительный анализ Poe, DeepSeek и GPT-3.5. Выяснилось, что DeepSeek менее склонен к галлюцинациям в технических темах и ведёт себя более детерминированно, но уступает GPT-3.5 в креативности. Платформа Poe удобна для быстрого переключения между моделями, но не подходит для долгих исследовательских проектов – контекст там не изолируется. Кроме того, общим ограничением бесплатных версий является небольшой размер контекстного окна (4–8 тыс. токенов). Этого объёма недостаточно для работы с полным текстом научной статьи.
5. Технические проблемы и ограничения
Наиболее серьёзной проблемой являются галлюцинации LLM. Гончар [14] в работе про уязвимости LLM пишет, что галлюцинации могут быть не только случайными, но и намеренными. Атаки на этапе вывода или отравление обучающих данных – это реально. Злоумышленник может специально вызвать ложные факты, подсунув модели статистическую аномалию в промпте. Для научной статьи такая галлюцинация, попавшая в публикацию, исказит результат.
Для борьбы с галлюцинациями предлагаются технические методы, однако ни один из них не является идеальным. Например, семантический анализ неопределённости: многократно опрашиваем модель и смотрим разброс ответов. Или кросс-верификация с внешними базами знаний. Но всё это требует дополнительных вызовов API и увеличивает стоимость.
Вторая проблема – выбор между детерминированностью и креативностью. Большинство LLM по умолчанию настроены на стохастичность (температура > 0). Это хорошо для генерации новых идей, но плохо для воспроизводимости. Для науки воспроизводимость обязательна. Можно обнулить температуру и зафиксировать seed – но даже тогда из-за параллельных вычислений на GPU могут быть расхождения. Это ставит под сомнение возможность признания ИИ соавтором в условиях невоспроизводимости его результатов.
Третье ограничение связано с экономическими затратами и масштабируемостью. Обработка большой рукописи (50 страниц) – это десятки тысяч токенов. Плата за API даже по умеренным тарифам выливается в десятки долларов за один цикл рецензирования. Бесплатные версии, как показала Савкина [13], имеют жёсткие лимиты и для серьёзной работы не годятся.
6. Перспективы и направления развития
Среди возможных направлений развития можно выделить следующие: создание специализированных научных LLM. Модели, обученные на корпусе рецензируемых журналов, протоколов экспериментов. Они должны уметь работать не только с текстом, но и с таблицами, формулами, кодом. В наших источниках про такие модели ничего нет, но в профессиональной среде это активно обсуждается как один из путей борьбы с галлюцинациями.
Второе – децентрализованное соавторство. Одним из перспективных направлений является децентрализованное соавторство, при котором несколько LLM-агентов и людей совместно работают над проектом, обмениваясь сообщениями по стандартизированным протоколам. Технически это потребует стандартов вроде Actor Model для распределённых вычислений. У Бурилиной и Ахмадеева [6] есть наработки, но под современные генеративные модели их надо адаптировать.
Третье – наиболее детально в проанализированных источниках представлена стандартизация метаданных об ИИ-вкладе. Косычева [15] описывает систему CRediT (Contributor Roles Taxonomy). Она позволяет детально расписать, кто что сделал в статье: концептуализацию, исследование, написание черновика, редактирование и так далее. Многие издательства уже приняли CRediT. Осталось расширить её, добавив роль «AI-assisted generation» и обязательное приложение журнала промптов с версией модели. Если такой формат станет машиночитаемым (JSON, YAML), то ИИ-соавторство станет прозрачным и проверяемым.
7. Заключение
В заключение сформулируем основные выводы. Архитектура ИИ-соавтора – это LLM-агент с памятью, планировщиком и вызовом внешних инструментов [5, 7]. Лучше всего для науки подходят гибридные архитектуры, где обученная модель дополнена символьным верификатором.
Протоколы взаимодействия выходят за рамки «запрос-ответ». Требуются управление целями и взаимная адаптация [8]. Технически это надо фиксировать в журналах промптов и ответов. Система CRediT может стать основой для такой фиксации [15].
Существующие ассистенты (ChatGPT, DeepSeek, GPT-3.5) умеют писать черновики, но галлюцинируют и страдают от ограничений по контексту [11, 13]. Использовать их можно только в режиме «человек всё перепроверяет» – это не полноценное соавторство.
Главные технические препятствия: галлюцинации (включая атаки [14]), недетерминизм, высокая стоимость. Решение обозначенных проблем лежит в плоскости разработки специализированных научных моделей, децентрализованных протоколов и стандартов метаданных.
Дальше надо пробовать на практике. Создать эталонную архитектуру ИИ-соавтора, которая удовлетворяет требованиям воспроизводимости и этики. И экспериментально проверить протоколы логирования в реальных исследовательских проектах. Наша работа – это технологическая база, чтобы встроить LLM в публикационные практики без потери качества и достоверности.
Список литературы:
- Коваль Екатерина Александровна, Ушкин Сергей Геннадьевич, Агеева Ольга Николаевна, Жадунова Наталья Владимировна «Ассистент в кармане»: влияние генеративного искусственного интеллекта на публикационные практики российских аспирантов // Высшее образование в России. 2025. №12. URL: https://cyberleninka.ru/article/n/assistent-v-karmane-vliyanie-generativnogo-iskusstvennogo-intellekta-na-publikatsionnye-praktiki-rossiyskih-aspirantov (дата обращения: 02.05.2026).
- Сысоев Павел Викторович, Филатов Евгений Михайлович CHATGPT В ИССЛЕДОВАТЕЛЬСКОЙ РАБОТЕ СТУДЕНТОВ: ЗАПРЕЩАТЬ ИЛИ ОБУЧАТЬ? // Вестник ТГУ. 2023. №2. URL: https://cyberleninka.ru/article/n/chatgpt-v-issledovatelskoy-rabote-studentov-zapreschat-ili-obuchat (дата обращения: 02.05.2026).
- Маляревич Даниил Владиславович ChatGPT и наука: взаимодействие научного сообщества и искусственного интеллекта // Векторы благополучия: экономика и социум. 2024. №2 (52). URL: https://cyberleninka.ru/article/n/chatgpt-i-nauka-vzaimodeystvie-nauchnogo-soobschestva-i-iskusstvennogo-intellekta (дата обращения: 02.05.2026).
- Янукович Максим Францевич ЦИФРОВОЙ СОАВТОР: КАК ИИ МЕНЯЕТ ПРИРОДУ ТВОРЧЕСТВА И СМЫСЛА // Вестник Пермского университета. Философия. Психология. Социология. 2025. №4. URL: https://cyberleninka.ru/article/n/tsifrovoy-soavtor-kak-ii-menyaet-prirodu-tvorchestva-i-smysla (дата обращения: 02.05.2026).
- Д. Е. Намиот, Е. А. Ильюшин Архитектура LLM агентов // International Journal of Open Information Technologies. 2025. №1. URL: https://cyberleninka.ru/article/n/arhitektura-llm-agentov (дата обращения: 02.05.2026).
- Бурилина Мария Александровна, Ахмадеев Булат Анасович Анализ многообразия архитектур и методов моделирования децентрализованных систем на основе агент-ориентированного подхода // КЭ. 2016. №7. URL: https://cyberleninka.ru/article/n/analiz-mnogoobraziya-arhitektur-i-metodov-modelirovaniya-detsentralizovannyh-sistem-na-osnove-agent-orientirovannogo-podhoda (дата обращения: 02.05.2026).
- Искандарова С. А. ИИ-АГЕНТЫ В КОРПОРАТИВНОМ УПРАВЛЕНИИ: АРХИТЕКТУРНЫЕ РЕШЕНИЯ И ПРАКТИКИ ВНЕДРЕНИЯ // Вестник науки. 2025. №6 (87). URL: https://cyberleninka.ru/article/n/ii-agenty-v-korporativnom-upravlenii-arhitekturnye-resheniya-i-praktiki-vnedreniya (дата обращения: 02.05.2026).
- Violetta V. Palenova, Anatoly N. Voronin Toward a New Level of Human–Chatbot Communication: Goal Management and Mutual Verbal Adaptation // Вестник РУДН. Серия: Психология и педагогика. 2025. №1. URL: https://cyberleninka.ru/article/n/toward-a-new-level-of-human-chatbot-communication-goal-management-and-mutual-verbal-adaptation (дата обращения: 02.05.2026).
- Anna Kartasheva Dialogue as Autocommunication On Interactions with Large Language Models // T&L. 2024. №2. URL: https://cyberleninka.ru/article/n/dialogue-as-autocommunication-on-interactions-with-large-language-models (дата обращения: 02.05.2026).
- Деникин Антон Анатольевич Человеко-машинные взаимодействия и искусственный интеллект: к новому пониманию алгоритмических коммуникаций // Социология науки и технологий. 2024. №4. URL: https://cyberleninka.ru/article/n/cheloveko-mashinnye-vzaimodeystviya-i-iskusstvennyy-intellekt-k-novomu-ponimaniyu-algoritmicheskih-kommunikatsiy (дата обращения: 02.05.2026).
- Михаил Иосифович Коган, Сергей Никитич Иванов «Поймай меня, если сможешь». ChatGPT сегодня: искусственный интеллект, способный написать для нас научную статью или это игра в имитацию? // Вестник урологии. 2023. №3. URL: https://cyberleninka.ru/article/n/poymay-menya-esli-smozhesh-chatgpt-segodnya-iskusstvennyy-intellekt-sposobnyy-napisat-dlya-nas-nauchnuyu-statyu-ili-eto-igra-v (дата обращения: 02.05.2026).
- Джибилова Елена Геннадьевна, Побываев Николай Сергеевич Анализ российского и зарубежного опыта применения ChatGPT и искусственного интеллекта в политике и социальной сфере // Социально-гуманитарные знания. 2024. №1. URL: https://cyberleninka.ru/article/n/analiz-rossiyskogo-i-zarubezhnogo-opyta-primeneniya-chatgpt-i-iskusstvennogo-intellekta-v-politike-i-sotsialnoy-sfere (дата обращения: 02.05.2026).
- Савкина Анастасия Васильевна СРАВНИТЕЛЬНЫЙ АНАЛИЗ БЕСПЛАТНЫХ AI-АССИСТЕНТОВ: PОЕ, DЕЕРSЕЕK, GPT-3.5 // Вестник науки и образования. 2025. №7 (162)-2. URL: https://cyberleninka.ru/article/n/sravnitelnyy-analiz-besplatnyh-ai-assistentov-poe-deerseek-gpt-3-5 (дата обращения: 02.05.2026).
- Denis Gonchar SECURING THE FUTURE: ADDRESSING AI-ENABLED LARGE LANGUAGE MODEL VUL-NERABILITIES IN THE DIGITAL AGE // Universum: технические науки. 2023. №12-7 (117). URL: https://cyberleninka.ru/article/n/securing-the-future-addressing-ai-enabled-large-language-model-vul-nerabilities-in-the-digital-age (дата обращения: 02.05.2026).
- Косычева Марина Александровна Система CRediT для описания авторского вклада // Health, Food & Biotechnology. 2023. №1. URL: https://cyberleninka.ru/article/n/sistema-credit-dlya-opisaniya-avtorskogo-vklada (дата обращения: 02.05.2026).
дипломов

