Телефон: 8-800-350-22-65
WhatsApp: 8-800-350-22-65
Telegram: sibac
Прием заявок круглосуточно
График работы офиса: с 9.00 до 18.00 Нск (5.00 - 14.00 Мск)

Статья опубликована в рамках: Научного журнала «Студенческий» № 34(330)

Рубрика журнала: Технические науки

Секция: Радиотехника, Электроника

Скачать книгу(-и): скачать журнал часть 1, скачать журнал часть 2, скачать журнал часть 3, скачать журнал часть 4, скачать журнал часть 5

Библиографическое описание:
Тыринова А.А. ОПТИМИЗАЦИЯ РАЗРЯЖЁННЫХ ФАЗИРОВАННЫХ АНТЕННЫХ РЕШЁТОК НА ОСНОВЕ МЕТОДОВ МАШИННОГО ОБУЧЕНИЯ // Студенческий: электрон. научн. журн. 2025. № 34(330). URL: https://sibac.info/journal/student/330/389107 (дата обращения: 05.11.2025).

ОПТИМИЗАЦИЯ РАЗРЯЖЁННЫХ ФАЗИРОВАННЫХ АНТЕННЫХ РЕШЁТОК НА ОСНОВЕ МЕТОДОВ МАШИННОГО ОБУЧЕНИЯ

Тыринова Анастасия Антоновна

студент, кафедра электроники, радиотехники и систем связи, Орловский государственный университет имени И.С. Тургенева,

РФ, г. Орёл

OPTIMIZATION OF SPARSE PHASED ANTENNA ARRAYS BASED ON MACHINE LEARNING METHODS

 

Tyrinova Anastasia Antonovna

Student, Department of Electronics, Radio Engineering, and Communication Systems, Oryol State University named after I. S. Turgenev,

Russia, Orel

 

АННОТАЦИЯ

Антенные решётки применяются в связи, радиолокации и радиоастрономии для усиления сигнала и подавления помех. В работе представлен метод оптимизации разрежённых фазированных решёток на основе нейросетевых моделей, направленный на снижение уровня боковых лепестков. Используется дифференцируемая аппроксимация функции стоимости с помощью нейронной сети, что позволяет применять градиентный спуск для оптимизации расположения элементов. Метод учитывает физические и конструктивные ограничения за счёт встроенного штрафного механизма. Эффективность подхода подтверждена на 10 конфигурациях, где достигнуто снижение боковых лепестков в среднем на 552%. Это открывает возможности для создания высокоточных и помехоустойчивых антенных систем нового поколения.

ABSTRACT

Antenna arrays are widely used in communications, radar, and radio astronomy to enhance signal strength and suppress interference. This paper presents a neural network-based method for optimizing sparse phased arrays aimed at reducing sidelobe levels. A differentiable surrogate model is used to approximate the cost function, enabling the use of gradient descent to optimize element positions. The method incorporates a penalty mechanism to account for physical and structural constraints. Its effectiveness is demonstrated on ten array configurations, achieving an average sidelobe level reduction of 552%. This approach opens new possibilities for high-precision, interference-resistant antenna systems of the next generation.

 

Ключевые слова: антенная решетка; машинное обучение; глубокое обучение; градиентный спуск; оптимизация.

Keywords: antenna array; machine learning; deep learning; gradient descent; optimization.

 

Современные телекоммуникационные и радиолокационные системы предъявляют всё более жёсткие требования к эффективности, компактности и экономичности антенных устройств. В этой связи особое внимание уделяется разработке направленных антенных решёток, способных обеспечивать высокое усиление, узкую диаграмму направленности и подавление боковых лепестков при минимальном числе излучающих элементов. Одним из эффективных подходов к решению данной задачи является проектирование разрежённых антенных решёток (Sparse Arrays), в которых часть элементов исключается или смещается с равномерной сетки без существенной деградации рабочих характеристик.

Однако оптимизация геометрии таких решёток представляет собой высокоразмерную и вычислительно затратную задачу, особенно при использовании традиционных методов численного моделирования на основе полноволновых расчётов (FEM, MoM, FDTD и др.). Повторяющиеся симуляции для множества конфигураций делают применение классических оптимизационных алгоритмов (генетических, эволюционных и пр.) крайне ресурсоёмким.

В данной работе предлагается подход, основанный на использовании суррогатных моделей, построенных с помощью нейросетевых архитектур, для ускоренной оценки характеристик излучения антенных решёток. Обученная модель позволяет с высокой точностью предсказывать ключевые параметры антенны (например, усиление, форму диаграммы направленности и уровень боковых лепестков) на основе геометрического описания решётки, что существенно снижает время одного итерационного шага при оптимизации.

Целью исследования является демонстрация и сравнение эффективности двух архитектур нейронных сетей (FNN и Set Transformer) для задачи оптимизации геометрии решетки методом градиентного спуска.

1 Методы

Генерация конфигураций антенных решеток

В этом разделе мы решаем задачу проектирования активно-электронных сканируемых решеток (AESA), упростив описание их факторa решетки (AF) с пяти переменных до двух, а также описываем процесс генерации данных для последующей оптимизации.

Фактор решетки (AF) для плоской фазированной антенной решетки с равномерно возбуждёнными элементами, расположенными в плоскости yz, задаётся следующим выражением:

где:

 — волновое число,

 — единичный вектор в направлении наблюдения,

 — единичный вектор в направлении основного луча.

Здесь:

  • EL и AZ — углы места и азимута в направлении наблюдения,
  • EL и AZ — углы, определяющие направление основного луча.

Отметим, что EL = π/2 − θ, AZ = φ — это переход к привычным сферическим координатам. Положение n-го элемента описывается как , где  — общее количество элементов решетки.

Вводя вектор разности , мы переопределяем фактор решетки, сократив число переменных до двух:

Здесь  — волновое число, а  представляет собой единичный вектор в направлении наблюдения, в то время как  указывает на направление основного луча.

Дополнительно:

  • EL и AZ — углы места и азимута направления наблюдения,
  • EL и AZ — соответствующие углы для основного луча. Отметим, что в системе сферических координат EL = π/2 − θ, а AZ = φ.

Положение n-го элемента антенной решётки задаётся вектором , а  — общее число элементов.

Вводя вектор разности , мы переопределяем фактор решётки, используя только две переменные:

Здесь  и  — компоненты вектора  вдоль осей y и z. Область определения вектора  может быть получена численно или аналитически в зависимости от сектора сканирования основного луча. Определение области поддержки AF на плоскости  позволяет упростить оценку по всей интересующей области. Этот подход снижает требования к объёму хранения и вычислительным ресурсам, облегчая полное отображение области наблюдения в одном изображении.

Для упрощения процесса оптимизации и более эффективного управления пространством поиска была использована концепция локальной периодичности для генерации данных [22]. Этот принцип помогает в организации и интеграции излучающих элементов и их передающих/принимающих модулей посредством стратегии субрешёток.

В данном подходе вся антенная решётка строится из нескольких субрешёток, каждая из которых спроектирована так, чтобы обладать собственной периодичностью. Такая стратегия эффективно сокращает количество переменных проектирования.

На практике решётка конфигурируется из периодических субрешёток, каждая из которых может иметь уникальную периодичность по обеим осям. Также предусмотрена возможность поворота и смещения этих субрешёток в пределах своих поддоменов. Поверхность всей решётки делится на несколько субдоменов, в каждом из которых размещается одна периодическая субрешётка. Основными параметрами проектирования для оптимизации являются:

  • периодичность вдоль каждой из осей,
  • поворот и смещение каждой субрешётки.

Такой подход упрощает сложную задачу проектирования, сводя множество возможных конфигураций к ограниченному числу структурированных переменных.

Функция стоимости

Функция стоимости оценивает соотношение мощности в главном лепестке к мощности в боковых лепестках, при этом соблюдаются ограничения. Формула выглядит так:

Где:

 — значение функции направленности (array factor) в точке ;

ML — множество точек, соответствующих области главного лепестка;

 — все остальные точки, не входящие в главный лепесток (т.е. боковые лепестки);

 — степень нормы (в работе используется ).

Функция штрафует за высокие значения боковых лепестков, особенно если они приближаются к амплитуде главного лепестка, и поэтому минимизация этой функции приводит к улучшенной диаграмме направленности.

На рисунке 1 показан пример конфигурации антенной решётки, использующей структуру из периодических субрешёток.

Рисунок 1. Пример конфигурации с периодической подсекцией (sub-array)

 

2. ОПТИМИЗАЦИЯ АНТЕННЫХ РЕШЕТОК С ИСПОЛЬЗОВАНИЕМ АППРОКСИМАЦИЙ НА ОСНОВЕ НЕЙРОСЕТЕЙ

Оптимизация конфигураций антенных решеток — это крайне сложная задача, особенно когда требуется минимизировать сложную и, возможно, не дифференцируемую функцию стоимости. Из-за высокой сложности реальной функции стоимости её прямая оптимизация требует значительных инженерных усилий. Чтобы обойти эти трудности, мы используем нейронные сети как стратегический инструмент, позволяющий точно аппроксимировать исходную функцию стоимости и выступать в роли её суррогата. Нейронные сети известны своей способностью к универсальной аппроксимации [23–26]. Благодаря своей природе они обеспечивают гладкую и непрерывную функцию, что делает возможным применение методов градиентного спуска для оптимизации. Такая суррогатная функция отличается высокой адаптивностью, при условии, что она достаточно точно оценивает исходную функцию стоимости. В качестве суррогата можно использовать различные архитектуры, включая полно связные нейронные сети (FNN), сверточные сети (CNN) или трансформеры. Основной процесс оптимизации начинается после получения достоверной оценки функции стоимости. В наших экспериментах мы протестировали как полносвязную сеть (FNN), так и модификацию трансформера — Set Transformer [27].

Для выбора оптимальной архитектуры и гиперпараметров модели мы используем инструмент SHERPA, предназначенный для оптимизации гиперпараметров [28]. Мы выполняем перебор параметров (grid search) для всех настраиваемых величин в моделях Feedforward Neural Network (FNN) и Set Transformer.

Модель Feedforward Neural Network (FNN): архитектура FNN состоит из четырех полносвязных слоев. Входной слой имеет размерность 2048, что соответствует координатам Y и Z для 1024 элементов решетки. За ним следуют два скрытых слоя размерностью 20 и 12 соответственно. После каждого полносвязного слоя используется функция активации ReLU для внесения нелинейности в модель. Финальный выходной слой содержит один нейрон, который предсказывает значение функции стоимости, соответствующее данной геометрии антенной решетки.

В процессе обучения модель FNN обучалась в течение 1000 эпох с использованием скорости обучения 1×10⁻⁵ и размера батча 128. В качестве оптимизатора использовался Adam, минимизирующий функцию потерь. Мы исследовали различные конфигурации: размерности первого и второго скрытых слоев варьировались от [4, 120] и [2, 40] нейронов соответственно. Скорости обучения изменялись от 1×10⁻² до 1×10⁻⁶, а размеры батча — от 16 до 256, чтобы определить наилучшие параметры обучения.

 

Рисунок 2. Блок-схема, иллюстрирующая итерационный процесс оптимизации

 

Set Transformer предназначен для работы с данными, имеющими структуру множества, как указано в работе Lee и др. [27]. Он реализован в виде архитектуры с энкодером и декодером. Энкодер содержит два блока attention, инвариантных к перестановке элементов, что обеспечивает независимость от порядка входных данных. Декодер включает блок multi-head attention для агрегации, два дополнительных блока set-attention и полносвязный выходной слой.

И энкодер, и декодер состоят из attention-блоков с двумя головами, а скрытые слои имеют размерность 32. На вход модель получает данные размерности 2 — координаты Y и Z каждого антенного элемента. Как и в модели FNN, выходной слой содержит один нейрон, который предсказывает стоимость (cost) данной конфигурации антенной решетки.

Обучение модели Set Transformer проводилось в течение 1000 эпох с использованием Adam-оптимизатора, шаг обучения — 1×10⁻³, размер батча — 64.

Мы исследовали различные конфигурации Set Transformer, варьируя размерность скрытых слоев от 8 до 64, а количество голов attention — от 2 до 8. Также изучались различные значения шага обучения от 1×10⁻² до 1×10⁻⁶ и размеры батча от 16 до 256 с целью подбора оптимальных гиперпараметров.

Функция стоимости

Для оценки стоимости конкретной конфигурации антенной решетки нейросеть выдает вещественное число в диапазоне от – 40,000 до – 0.7. Чем меньше значение, тем выше эффективность конфигурации. Поскольку диапазон значений широкий, мы нормализуем данные перед обучением, используя уравнение (4), и применяем обратное масштабирование по формуле (5), чтобы восстановить исходные значения:

Поскольку данные были сгенерированы при одинаковых условиях (одинаковая длина волны и апертура), стоимость конфигурации полностью определяется координатами элементов решетки. Каждая конфигурация представляется как набор пар координат с переменным количеством элементов.

Вводные данные

Основная трудность при работе с данными — выбор архитектуры нейросети. Для FNN мы упорядочиваем координаты антенн и используем дополнение (padding) до 1024 элементов, чтобы стандартизировать вход. После обучения на приближение функции стоимости модель применяется для оптимизации конфигурации с помощью градиентного спуска.

Для оптимизации конкретной конфигурации мы корректируем координаты антенн с целью минимизации функции стоимости. Оптимизация выполняется в фреймворке PyTorch с использованием Adam — эффективного градиентного оптимизатора с гибко настраиваемыми параметрами [29–31].

Учет физических ограничений

Для соблюдения физических ограничений между элементами массива применяются два метода:

Проверка минимального расстояния. На каждом шаге оптимизации проверяется, соблюдается ли минимальное расстояние между элементами. Если да — конфигурация принимается и переходит к следующей итерации. Если нет — откат к последней допустимой конфигурации и завершение оптимизации.

Штрафной отталкивающий член в функции стоимости. В модель добавляется штраф, зависящий от расстояний между элементами. Он резко возрастает при приближении элементов к минимальному допустимому расстоянию, тем самым препятствуя недопустимым конфигурациям. Такой подход также можно адаптировать для предотвращения чрезмерного разрежения массива или слияния элементов.

Механизм штрафа

В предлагаемой модели используется гибкий механизм штрафа, который позволяет внедрять настраиваемые функции штрафов, адаптированные под конкретные требования к проектированию. Такие штрафы предназначены для учета различных ограничений или целей оптимизации. Ниже приведен пример функции штрафа, применённой в нашей работе.

Эта функция вычисляет евклидово расстояние между каждой парой элементов массива, обозначаемое как  для элементов  и , где . Устанавливается также минимальный порог расстояния, обозначаемый как . Формула для вычисления штрафа между двумя элементами:

Общий штраф , применяемый в процессе оптимизации, представляет собой сумму всех индивидуальных штрафов, умноженную на коэффициент , который определяет влияние отталкивающего терма на процесс оптимизации:

Здесь  — множество всех элементов в текущей конфигурации антенн. Масштабный коэффициент  играет ключевую роль: при его увеличении усиливается акцент на соблюдении минимального расстояния между элементами, что эффективно предотвращает их сближение до недопустимого уровня.

Цель процесса оптимизации — минимизировать следующую целевую функцию (функцию потерь):

где  — значение функции стоимости, вычисленное суррогатной нейросетевой моделью для данной конфигурации антенны, а  — добавочный штраф за нарушение ограничений по расстоянию между элементами.

3. РЕЗУЛЬТАТЫ

В этом разделе представлены улучшения характеристик антенных решёток, достигнутые с использованием FNN и Set Transformer — как с применением механизма штрафов, предназначенного для снижения взаимного влияния элементов, так и без него. На рисунке 3 показана оптимизированная разреженная решётка, полученная при помощи FNN с включённым штрафным механизмом.

Рисунок 3. Пример оптимизированной конфигурации антенной решётки

 

Рисунок 4 демонстрирует результаты как для FNN, так и для Set Transformer без применения штрафного механизма, а на рисунке 5 показано сравнение работы FNN с и без штрафа.

 

Рисунок 4. Сечения по осям uy и uz, полученные с использованием как FNN, так и Set Transformer. Сплошные линии соответствуют результатам FNN, а пунктирные — результатам, полученным с помощью Set Transformer

 

Для упрощения анализа мы выбрали десять конфигураций антенных решёток с наименьшей исходной стоимостью. Каждый процесс оптимизации занимал примерно одну минуту. Наш метод легко масштабируется за счёт параллельного выполнения нескольких процессов оптимизации.

Результаты показывают, что ширина главного лепестка на уровне половинной мощности остаётся стабильной (ζ₃dB = 0.78°, где ζ обозначает либо угол места (EL), либо азимут (AZ)) во всех сценариях: при использовании FNN с и без штрафного механизма, а также при использовании Set Transformer.

При анализе уровня боковых лепестков (SLL) мы рассматриваем как первый, так и второй боковой лепесток для более детального сравнения. FNN с применением штрафного механизма демонстрирует наилучшие результаты: первый SLL составляет (-17.46, -15.72) дБ, а второй — (-20.03, -17.22) дБ. В противоположность этому, Set Transformer и FNN без штрафа показывают следующие значения: первый SLL — (-14.42, -14.06) дБ и (-13.54, -13.42) дБ соответственно, а второй SLL — (-15.27, -14.93) дБ и (-13.86, -14.41) дБ. Каждая пара значений в скобках соответствует измерениям SLL в направлениях uy и uz соответственно.

Архитектура FNN с включённым штрафным механизмом демонстрирует улучшенные характеристики. Одним из ключевых подходов к снижению взаимного влияния между элементами является увеличение минимального расстояния между соседними элементами. При включённом штрафном механизме среднее минимальное расстояние увеличивается с 0.501λ (в отсутствии штрафа) до 0.508λ.

Таблица 1

Сравнение стоимости при оптимизации без штрафа

 

Влияние градиентного спуска без штрафа

Оптимизация 10 конфигураций с наименьшими начальными значениями функции стоимости без учёта штрафной функции привела к среднему снижению стоимости на 59%, с максимальным улучшением до 66%. Тем не менее, после оптимизации минимальные расстояния между элементами нередко приближались к пороговому значению (θ = 0.5), что свидетельствует о потенциальном риске нарушения физических ограничений.

Таблица 2

Сравнение стоимости при оптимизации со штрафом

 

Применение градиентного спуска с учетом штрафа за минимальное расстояние между элементами привело к среднему улучшению на 552% по стоимости конфигурации, достигнув максимального снижения на 643% в случае FNN. Это подтверждает, что добавление штрафного слагаемого позволяет добиться значительных улучшений без нарушения физических ограничений.

Штрафная функция направляет процесс оптимизации, удерживая его в пределах допустимых технических ограничений, одновременно максимизируя снижение стоимости. Были установлены оптимальные значения параметра штрафа ε:

  • 12.5 для архитектуры FNN
  • 1 для Set Transformer. Эти значения определялись путем подбора в диапазоне от 0.1 до 100.

Оптимизация с использованием штрафной функции не только обеспечивает безопасный запас по минимальному расстоянию между элементами, но и превосходит по результативности оптимизацию без штрафов. Это наблюдается в обоих подходах — и в FNN, и в Set Transformer. Такой подход улучшает практическую пригодность конфигураций и повышает эффективность их работы.

Таким образом, был представлен новый метод проектирования антенных решеток, использующий глубокое обучение для эффективной оптимизации крупномасштабных конфигураций. Подход начинается с формирования субрешеток как базовых блоков всей системы. Центральным элементом является применение нейросетей для дальнейшей оптимизации геометрии решеток.

С использованием глубокого обучения мы достигли значительного снижения стоимости при соблюдении физических ограничений. В частности, для десяти конфигураций с наименьшей начальной стоимостью было достигнуто в среднем:

  • Снижение на 552% при применении штрафа
  • Снижение на 59% без штрафа

Предложенный метод является универсальным и может быть применен и к другим типам решеток, включая неплоские. Эта стратегия может быть использована в будущих исследованиях для задач фазирования, формирования диаграмм направленности, а также проектирования прореженных решеток и других приложений.

 

Список литературы:

  1. Amitay N., Galindo V., Wu C. P. Theory and Analysis of Phased Array Antennas. – New York: Wiley-Interscience, 1972.
  2. Rocca P., Oliveri G., Mailloux R. J., Massa A. Обзор нетрадиционных архитектур ФАР и методов их проектирования // Proc. IEEE. – 2016. – Т. 104, № 3. – С. 544–560.
  3. Rocca P., Mailloux R., Toso G. Оптимизация расположения субрешеток для широкополосных ФАР с использованием ГА // IEEE Antennas Wirel. Propag. Lett. – 2014. – Т. 14. – С. 131–134.
  4. Rocca P., Haupt R. L., Massa A. Снижение боковых лепестков путём управления фазой в равномерных субрешеточных решётках // IEEE Antennas Wirel. Propag. Lett. – 2009. – Т. 8. – С. 437–440.
  5. Rocca P., Manica L., Massa A. Метод кластеризации на основе алгоритма муравьиной колонии для суммарно-разностного синтеза // IEEE Trans. Antennas Propag. – 2009. – Т. 57, № 8. – С. 2297–2306.
  6. Haupt R. L. Antenna Arrays: A Computational Approach. – Chichester: Wiley, 2010.
  7. Haupt R. L. Прореженные решётки на основе генетических алгоритмов // IEEE Trans. Antennas Propag. – 1994. – Т. 42, № 7. – С. 993–999.
  8. Haupt R. L. Перекрёстные прореженные линейные решётки // IEEE Trans. Antennas Propag. – 2005. – Т. 53, № 9. – С. 2858–2864.
  9. Trucco A., Murino V. Стохастическая оптимизация линейных разреженных решёток // IEEE J. Oceanic Eng. – 1999. – Т. 24, № 3. – С. 291–299.
  10. Kim Y., Keely S., Ghosh J., Ling H. Применение ИНС к проектированию широкополосных антенн // IEEE Trans. Antennas Propag. – 2007. – Т. 55, № 3. – С. 669–674.
  11. Ding X. и др. Моделирование СВЧ-компонентов с помощью ИНС и их оптимизация // IEEE Trans. Microwave Theory Tech. – 2004. – Т. 52, № 1. – С. 436–449.
  12. Lee K.-C. ИНС и её производная в задаче рассеяния на антенне с нелинейной нагрузкой // IEEE Trans. Antennas Propag. – 2007. – Т. 55, № 3. – С. 990–993.
  13. Liu J. и др. Проектирование СВЧ-ИМС с использованием нейросети на основе реляционного вывода // arXiv preprint arXiv:1901.02069, 2019.
  14. Huang H. и др. Быстрая настройка диаграмм направленности на основе глубокого обучения // IEEE Trans. Veh. Technol. – 2020. – Т. 69, № 1. – С. 1065–1069.
  15. Lin T., Zhu Y. Проектирование диаграмм направленности для больших антенн с помощью глубокого обучения // IEEE Wirel. Commun. Lett. – 2020. – Т. 9. – С. 103–107.
  16. Komeylian S. Моделирование различных антенн с помощью глубоких нейросетей // IEEE Can. J. Electr. Comput. Eng. – 2021. – Т. 44, № 3. – С. 261–274.
  17. Yang X. и др. Синтез линейных разреженных решёток на основе глубокого обучения // IEEE Trans. Antennas Propag. – 2023. – Т. 71, № 8. – С. 6513–6522.
  18. Maman L., Zach S., Boag A. Расширение диаграммы направленности методом фазового кодирования // Proc. EuCAP 2023. – С. 1–3.
  19. Maman L., Zach S., Boag A. Расширение диаграммы направленности фазовым спадом в широкополосных ФАР // Proc. COMCAS 2021, Тель-Авив, Израиль.
  20. Maman L., Zach S., Boag A. То же // Proc. COMCAS 2023, Тель-Авив, Израиль.
  21. Maman L., Zach S., Boag A. Формирование ДН фазовым кодированием для передающих антенн в РЛС // IEEE Open J. Antennas Propag. – Early Access, 2025.
  22. Boag A. и др. Подавление решёточных лепестков в УШП антеннах // Proc. ICEAA 2018. – С. 85–86.
  23. Baldi P. Глубокое обучение в науке. – Кембридж: Cambridge Univ. Press, 2021.
  24. Scarselli F., Tsoi A. C. Универсальное приближение с помощью прямых ИНС: обзор и новые результаты // Neural Netw. – 1998. – Т. 11, № 1. – С. 15–37.
  25. Patel Y. Обучение ИНС с недифференцируемыми функциями потерь // arXiv preprint arXiv:2305.02024, 2023.
  26. DeVore R., Hanin B., Petrova G. Приближение нейросетями // Acta Numerica. – 2021. – Т. 30. – С. 327–444.
  27. Lee J. и др. Set Transformer: внимание-инвариантная к перестановкам нейросеть для обработки множеств // Proc. ICML. – 2019. – Т. 97. – С. 3744–3753.
  28. Hertel L. и др. Sherpa: надёжная оптимизация гиперпараметров для ИИ // SoftwareX. – 2020.
  29. Paszke A. и др. PyTorch: высокопроизводительная библиотека глубокого обучения // NeurIPS. – 2019. – Т. 32.
  30. Paszke A. и др. Автоматическое дифференцирование в PyTorch // NeurIPS ML Systems Workshop, 2017.
  31. Kingma D. P., Ba J. Метод оптимизации Adam // arXiv preprint arXiv:1412.6980, 2014.

Оставить комментарий