Телефон: 8-800-350-22-65
WhatsApp: 8-800-350-22-65
Telegram: sibac
Прием заявок круглосуточно
График работы офиса: с 9.00 до 18.00 Нск (5.00 - 14.00 Мск)

Статья опубликована в рамках: Научного журнала «Студенческий» № 22(42)

Рубрика журнала: Информационные технологии

Скачать книгу(-и): скачать журнал часть 1, скачать журнал часть 2, скачать журнал часть 3, скачать журнал часть 4

Библиографическое описание:
Аманжол А.А., Мамадалиев К.И. НЕЙРОСЕТЬ ПОНИМАЮЩАЯ СУТЬ ФИЗИЧЕСКИХ ПРОЦЕССОВ В СТАТИСТИЧЕСКИХ СИСТЕМАХ // Студенческий: электрон. научн. журн. 2018. № 22(42). URL: https://sibac.info/journal/student/42/122381 (дата обращения: 13.05.2024).

НЕЙРОСЕТЬ ПОНИМАЮЩАЯ СУТЬ ФИЗИЧЕСКИХ ПРОЦЕССОВ В СТАТИСТИЧЕСКИХ СИСТЕМАХ

Аманжол Арайлым Атажановна

студент, кафедры Системного анализа и управления ЕНУ,

Казахстан, г. Астана

Мамадалиев Кудрат Илхомжанович

студент, кафедры Системного анализа и управления ЕНУ,

Казахстан, г. Астана

Основная задача науки и реальной жизни – получение правильных предсказаний о будущем поведении сложных систем на основании их прошлого поведения. Многие задачи, возникающие в практических приложениях, не могут быть решены заранее известными методами или алгоритмами. Это происходит по той причине, что нам заранее не известны механизмы порождения исходных данных или же известная нам информация недостаточна для построения модели источника, генерирующего поступающие к нам данные. Как говорят, мы получаем данные из «черного ящика». В этих условиях ничего не остается, как только изучать доступную нам последовательность исходных данных и пытаться строить предсказания совершенствуя нашу схему в процессе предсказания. Подход, при котором прошлые данные или примеры используются для первоначального формирования и совершенствования схемы предсказания, называется методом машинного обучения (Machine Learning).

Машинное обучение – чрезвычайно широкая и динамически развивающаяся область исследований, использующая огромное число теоретических и практических методов. Данная книга ни в какой мере не претендует на какое-либо исчерпывающее изложение содержания данной области. Наша цель – познакомить читателя с некоторыми современными математическими проблемами данной области и их решениями, основной из которых является проблема построения и оценка предсказаний будущих исходов.

С данным подходом тесно связана задача универсального предсказания. В том случае, когда мы не имеем достаточной информации для того, чтобы построить модель источника генерирующего наблюдаемые данные, нам приходится учитывать как можно более широкие классы таких моделей и строить методы, которые предсказывают “не хуже” чем любая модель из данного класса. Понятие универсального предсказания, которое первоначально возникло в теории предсказаний стационарных источников, в настоящее время вышло далеко за рамки этой теории. Первая часть книги – Статистическая теории машинного обучения – использует методы теории вероятностей и математической статистики. В основе данного подхода лежит предположение о том, что наблюдаемые исходы генерируются вероятностным источником, возможно, с неизвестными параметрами. В рамках статистической теории машинного обучения мы рассматриваем задачи классификации и регрессии. Процесс обучения заключается в выборе функции классификации или регрессии из заранее заданного широкого класса таких функций.

Нейронная сеть – один из способов реализации искусственного интеллекта (ИИ).

В разработке ИИ существует обширная область — машинное обучение. Она изучает методы построения алгоритмов, способных самостоятельно обучаться. Это необходимо, если не существует четкого решения какой-либо задачи. В этом случае проще не искать правильное решение, а создать механизм, который сам придумает метод для его поиска.

Справка: во многих статьях можно встретить термин «глубокое» — или «глубинное» — обучение. Под ним понимают алгоритмы машинного обучения, использующие много вычислительных ресурсов. В большинстве случаев под ним можно понимать просто “нейронные сети”.

Нейросеть моделирует работу человеческой нервной системы, особенностью которой является способность к самообучению с учетом предыдущего опыта. Таким образом, с каждым разом система совершает все меньше ошибок.

Как и наша нервная система, нейросеть состоит из отдельных вычислительных элементов – нейронов, расположенных на нескольких слоях. Данные, поступающие на вход нейросети, проходят последовательную обработку на каждом слое сети. При этом каждый нейрон имеет определенные параметры, которые могут изменяться в зависимости от полученных результатов – в этом и заключается обучение сети.

Предположим, что задача нейросети – отличать кошек от собак. Для настройки нейронной сети подается большой массив подписанных изображений кошек и собак. Нейросеть анализирует признаки (в том числе линии, формы, их размер и цвет) на этих картинках и строит такую распознавательную модель, которая минимизирует процент ошибок относительно эталонных результатов.

Физики разработали новый алгоритм машинного обучения, который с помощью анализа состояний статистической системы на макроскопическом и микроскопическом уровнях находит те степени свободы, которые определяют ее физические свойства. Этот алгоритм, основанный на использовании метода ренормализационной группы, был успешно проверен на двух двумерных статистических моделях.

Среди многочисленных технологических и научных задач, для решения которых сейчас используется машинное обучение, в последнее время появились и некоторые физические проблемы: например, фазовый анализ или численное моделирование основных энергетических состояний. Часто с помощью методов машинного обучения проводится анализ большого объема экспериментальных данных. Например, недавно физики использовали один из таких методов для решения задачи минимизации энергии в модели Изинга.

Но если метод поиска конкретной особенности среди известных данных (пусть и не самой простой по своей структуре) — задача для искусственных нейросетей довольно понятная, то намного сложнее, ничего не зная заранее о физической системе, состоящей из большого количества частиц, найти в ней те параметры и свойства, которые отвечают за ее физическое поведение. Системы, которые внешне (на макроскопическом уровне) ведут себя очень похожим образом, на микроскопическом уровне могут очень сильно отличаться. И понять, какими процессами на каком из масштабов контролируются может быть непросто.

 

Рисунок 1. Проверка работы нейросети (ее данные приведены в розовом квадрате) на модели мозаики домино

 

Физики Мацей Кох-Януш из Швейцарской высшей школы Цюриха и Зохар Рингель из Еврейского университета в Иерусалиме разработали схему машинного обучения, которая позволяет, не имея изначально никаких данных о статистической физической системе, найти те степени свободы системы, которые определяют ее физическое поведение. Для этого ученые использовали метод ренормализационной группы — итерационный математический метод перенормировки, который позволяет переходить от одного пространственного или энергетического масштаба рассмотрения системы к другому. Несмотря на то, что разные модификации этого метода довольно сильно отличаются друг от друга, все они позволяют исключать при перенормировке те степени свободы системы, которые не связаны с ее физическим поведением, и оставить те, которые его определяют.

По словам авторов работы, поиск определяющих поведение физической системы степеней свободы важен не только с количественной точки зрения, но и с качественной: оно позволяет взглянуть на исследуемую физическую проблему под нужным углом. Поэтому разработанный алгоритм машинного обучения может оказаться весьма полезным и для фундаментальной физики.

Методы машинного обучения все чаще используются при решении самых разнообразных физических задач, относящихся в первую очередь к статистической и квантовой физике. Например, на основе однослойной нейросети ученые разработали метод решения квантовой задачи многих тел, которая позволяет вычислять состояния квантовых систем кубитов с минимальной энергией и исследовать поведение таких объектов во времени. Другую нейросеть физики научили считать функциональные интегралы и проверили ее работу на 1+1-мерной модели Тирринга.

 

Список литературы:

  1. Аджиев, В.Д. Машинная геометрия и графика / В.Д. Аджиев, А.А. Пасько, и др.- М.: Знание, 1990. - 983 c.
  2. Бунаков, В. Е. Нейронная физика. Учебное пособие: моногр. / В.Е. Бунаков, Л.В. Краснов. - М.: Издательство Санкт-Петербургского университета, 2015. - 200 c.
  3. Головинский, П. А. Математические модели. Теоретическая физика и анализ сложных систем. Книга 2. От нелинейных колебаний до искусственных нейронов и сложных систем / П.А. Головинский. - М.: Либроком, 2012. - 234 c.
  4. Катехоламинергические нейроны. - М.: Наука, 1979. - 296 c.
  5. Круглов, В.В. Искусственные нейронные сети. Теория и практика: моногр. / В.В. Круглов, В.В. Борисов. - М.: Горячая линия - Телеком; Издание 2-е, стер., 2002. - 382 c.
  6. Лекция Евгения Бурнаева, посвященная использованию машинного обучения в индустриальной инженерии и её приложениях, прочитанная на Data Fest 4D в 2017 г.
  7. Лекция Е. Бурнаева https://www.youtube.com/watch?v=dEFxoyJhm3Y
  8. Нейронные сети. Statistica Neural Networks. Методология и технологии современного анализа данных. - М.: Горячая линия - Телеком, 2008. - 392 c.
  9. Парвин, Манучер Из серого. Концерт для нейронов и синапсов / Манучер Парвин. - М.: Страта, 2015. - 408 c.
  10.  Флах, Петер Машинное обучение. Наука и искусство построения алгоритмов, которые извлекают знания из данных. Учебник / Петер Флах. - М.: ДМК Пресс, 2015. - 400 c.
  11. Шибзухов, З. М. Конструктивные методы обучения сигма-пи нейронных сетей / З.М. Шибзухов. - М.: Наука, 2006. - 160 c.
  12. Jesse, Russell Искусственная нейронная сеть / Jesse Russell. - М.: VSD, 2012. - 0 c.
  13. Jesse, Russell Нейрон / Jesse Russell. - М.: VSD, 2012. - 0 c.

Оставить комментарий

Форма обратной связи о взаимодействии с сайтом
CAPTCHA
Этот вопрос задается для того, чтобы выяснить, являетесь ли Вы человеком или представляете из себя автоматическую спам-рассылку.