Телефон: 8-800-350-22-65
Напишите нам:
WhatsApp:
Telegram:
MAX:
Прием заявок круглосуточно
График работы офиса: с 9.00 до 18.00 Нск (5.00 - 14.00 Мск)

Статья опубликована в рамках: CXX Международной научно-практической конференции «Экспериментальные и теоретические исследования в современной науке» (Россия, г. Новосибирск, 29 декабря 2025 г.)

Наука: Математика

Скачать книгу(-и): Сборник статей конференции

Библиографическое описание:
Вандакуров И.Ю., Тархов Д.А. ПОСТРОЕНИЕ ПРИБЛИЖЁННОГО РЕШЕНИЯ УРАВНЕНИЯ ДЮФФИНГА С ПОМОЩЬЮ НЕЙРОСЕТЕВОЙ АНАЛИТИЧЕСКОЙ МОДИФИКАЦИИ МЕТОДА ХОЙНА // Экспериментальные и теоретические исследования в современной науке: сб. ст. по матер. CXX междунар. науч.-практ. конф. № 12(112). – Новосибирск: СибАК, 2025. – С. 20-25.
Проголосовать за статью
Дипломы участников
У данной статьи нет
дипломов

ПОСТРОЕНИЕ ПРИБЛИЖЁННОГО РЕШЕНИЯ УРАВНЕНИЯ ДЮФФИНГА С ПОМОЩЬЮ НЕЙРОСЕТЕВОЙ АНАЛИТИЧЕСКОЙ МОДИФИКАЦИИ МЕТОДА ХОЙНА

Вандакуров Игорь Юрьевич

канд. физ.-мат. наук, доцент, Санкт-Петербургский политехнический университет Петра Великого,

РФ, г. Санкт-Петербург

Тархов Дмитрий Альбертович

д-р техн. наук, профессор, Санкт-Петербургский политехнический университет Петра Великого,

РФ, г. Санкт-Петербург

АННОТАЦИЯ

Аналитическая модификация метода Хойна применяется к построению приближённого параметрического решения уравнения Дюффинга. Сравнивается непосредственная аналитическая модификация с подбором оптимального параметра с вариантом встраивания в приближённое решение нейронной сети.

 

Ключевые слова: уравнение Дюффинга, аналитическая модификация численных методов, метод Хойна, параметрическое решение, нейронные сети.

 

Введение

Для практического моделирования реальных систем особое значение имеет построение математических моделей, содержащих параметры задачи. Особый интерес представляет решение в виде функции, в которую параметры задачи входят в качестве входных аргументов [1-3]. В последние годы для построения устойчивых моделей реальных систем широко используются физически информированные нейронные сети [1-5]. Другим подходом, удобным для построения параметрических моделей является аналитическая модификация численных методов [6-9]. В работе [10] эти два подхода объединяются. В данном исследовании на примере уравнения Дюффинга рассматривается другой способ объединения указанных двух подходов.

Материалы и методы

Актуальной задачей является объединение нейросетевого и классических подходов. Мы предполагаем, что полученные гибридные алгоритмы будут избавлены от недостатков каждого из подходов при сохранении их достоинств.

Поясним метод на примере классического явного метода Эйлера. Рассмотрим задачу Коши для системы обыкновенных дифференциальных уравнений

                                                                 (1)

 

на промежутке , содержащем точку . Здесь , , . Классический метод Эйлера состоит в выборе , разбиении промежутка D на n частей: , и применении итерационной формулы

,                                                            (2)

 

где ;  – приближение к точному значению искомого решения . Для получения приближённого решения в виде функции по полученным поточечным приближениям обычно проводят ломаную линию (ломаная Эйлера) или сплайн. 

Мы предлагаем принципиально другой подход для построения приближённого решения в виде функции. С помощью формулы (2) будем строить приближённое решение задачи (1) на переменном интервале

, где .

При этом , , .  В качестве искомого приближённого решения предлагается использовать .

Метод Эйлера можно заменить другими методами. В данной работе применяется комбинация метода Эйлера и метода Хойна:

,              (3)

 

 - вспомогательный параметр. При = 0.5 и фиксированном  получается стандартный метод Хойна. В случае равномерного дробления имеем , . Если в формулировку задачи (1) входят параметры, тогда они автоматически войдут в формулу для решения.

В данной работе в качестве тестовой задачи рассматривается задача Коши для уравнения Дюффинга

                                                           (4)

 

Это уравнение обычным образом сводится к системе из двух уравнений первого порядка. Применение формулы (3) позволяет получить приближённое решение. Для получения более точного решения можно искать параметр  в формуле (3) в виде нейросетевой функции , параметры которой (веса нейронной сети) подбираются с помощью минимизации функционала ошибки

Результаты вычислений

Вычисления проводились для . Приведём результаты для двуслойной формулы (3)

 

Рисунок 1. Графики результата вычислений по формуле (2) в сравнении с точным решением для оптимального значения параметра  и

 

Рисунок 2. Графики результата вычислений по формуле (3) в сравнении с точным решением для оптимального значения параметра  и

 

Если в качестве параметра  взять нейронную сеть с одним нейроном и функцией активации , тогда результат становится существенно лучше

 

Рисунок 3. Графики результата вычислений по формуле (3) для параметра  в виде нейронной сети в сравнении с точным решением для

 

Рисунок 4. Графики результата вычислений по формуле (3) для параметра  в виде нейронной сети в сравнении с точным решением для  

 

Выводы

Предложенный метод позволяет получать компактные и достаточно точные решения нелинейных дифференциальных уравнений. При этом многократно сокращается время обучения по сравнению с классическими физически информированными нейронными сетями [4,5].

 

Список литературы:

  1. Vasilyev A. N., Tarkhov D. A. Mathematical Models of Complex Systems on the Basis of Artificial Neural Networks // Nonlinear Phenomena in Complex Systems. — 2014, Vol. 17. — No 3. — P. 327–335.
  2. Lazovskaya T. N., Tarkhov D. A., Vasilyev A. N. Parametric Neural Network Modeling in Engineering // Recent Patents on Engineering. — 2017, Vol. 11. — No 1. — P. 10–15
  3. Lazovskaya T.V., Tarkhov D.A. Fresh approaches to the construction of parameterized neural network solutions of a stiff differential equation. St. Petersburg Polytechnical University Journal: Physics and Mathematics (2015), http://dx.doi.org/10.1016/j.spjpm.2015.07.005.
  4. Raissi M., Perdikaris P., Karniadakis G.E. Physics-informed neural networks: A deep learning framework for solving forward and inverse problems involving nonlinear partial differential equations // Journal of Computational Physics. 2019. Vol. 378. P. 686–707.
  5. Tarkhov D., Vasilyev A. Semi-Empirical Neural Network Modeling and Digital Twins Development. Academic Press, 2020.
  6. Lazovskaya, T.; Tarkhov, D. Multilayer neural network models based on grid methods. In IOP Conference Series: Materials Science and Engineering; IOP Publishing: Bristol, UK, 2016
  7. Lazovskaya T., Malykhina G., Tarkhov D. Physics-Based Neural Network Methods for Solving Parameterized Singular Perturbation Problem // Computation. 2021. Vol. 9. P. 97.
  8. E. M. Budkina, E. B. Kuznetsov, T. V. Lazovskaya, D. A. Tarkhov, T. A. Shemyakina, A. N. Vasilyev Neural network approach to intricate problems solving for ordinary differential equations // Optical Memory and Neural Networks. — 2017, Vol. 26. — No. 2. — P. 96–109. SJR 2018: 0.46. https://link.springer.com/article/10.3103/S1060992X17020011
  9. T. T. Kaverzneva, G. F. Malykhina, D. A. Tarkhov From Differential Equations to Multilayer Neural Network Models// International Symposium on Neural Networks ISNN 2019: Advances in Neural Networks – ISNN 2019 Lecture Notes in Computer Science book series (LNCS, volume 11554) pp 19-27 https://link.springer.com/chapter/10.1007/978-3-030-22796-8_3
  10. Tarkhov, D., Lazovskaya, T., Malykhina, G. Constructing Physics-Informed Neural Networks with Architecture Based on Analytical Modification of Numerical Methods by Solving the Problem of Modelling Processes in a Chemical Reactor, Sensors (q1), 2023, 23(2), 663 https://www.mdpi.com/1424-8220/23/2/663
Проголосовать за статью
Дипломы участников
У данной статьи нет
дипломов

Оставить комментарий