Телефон: 8-800-350-22-65
WhatsApp: 8-800-350-22-65
Telegram: sibac
Прием заявок круглосуточно
График работы офиса: с 9.00 до 18.00 Нск (5.00 - 14.00 Мск)

Статья опубликована в рамках: XXVIII Международной научно-практической конференции «Технические науки - от теории к практике» (Россия, г. Новосибирск, 27 ноября 2013 г.)

Наука: Технические науки

Секция: Информатика, вычислительная техника и управление

Скачать книгу(-и): Сборник статей конференции

Библиографическое описание:
Борило И.А., Слядников Е.Е. АЛГОРИТМ ОБУЧЕНИЯ РЕКУРРЕНТНОГО ПЕРСЕПТРОНА С СИММЕТРИЧНЫМИ СВЯЗЯМИ // Технические науки - от теории к практике: сб. ст. по матер. XXVIII междунар. науч.-практ. конф. № 11(24). – Новосибирск: СибАК, 2013.
Проголосовать за статью
Дипломы участников
У данной статьи нет
дипломов
Статья опубликована в рамках:

 

Выходные данные сборника:

 

АЛГОРИТМ  ОБУЧЕНИЯ  РЕКУРРЕНТНОГО  ПЕРСЕПТРОНА  С  СИММЕТРИЧНЫМИ  СВЯЗЯМИ

Борило  Илья  Анатольевич

аспирант  Томского  Государственного  университета,  РФ,  г.  Томск

E-mail: 

Слядников  Евгений  Евгеньевич

д-р  физ.-мат.  наук,  профессор  Томского  Государственного  университета,  РФ,  г.  Томск

E-mail: 

 

LEARNING  ALGORITHM  OF  RECURRENT  PERCEPTRON  WITH  SYMMETRIC  CONNECTION

Borilo  Ilya  Anatolyevich

phD  student  of  Tomsk  State  University,  Russia  Tomsk

Slyadnikov  Evgeniy  Evgenievich

dr.  phys.-Math.  Science,  professor  of  Tomsk  State  University,  Russia  Tomsk

 

АННОТАЦИЯ

В  статье  рассмотрен  рекуррентный  персептрон  с  симметричными  связями.  Приведены  несколько  модификаций  алгоритма  обратного  распространения  ошибки,  позволяющие  проводить  обучение  предложенной  модели  рекуррентного  персептрона.  На  примере  предсказания  элементов  процесса  Маккея-Гласса  проведено  экспериментальное  сравнение  предложенных  модификаций.

ABSTRACT

Recurrent  perceptron  with  symmetric  connection  is  described  in  the  article.  Modification  back  propagation  algorithm,  which  could  be  used  for  learning  of  described  recurrent  perceptron,  is  described.  Learning  efficiency  of  Mackey-Glass  process  prediction  is  compared.

 

Ключевые  словарекуррентный  персептрон;  алгоритм  обратного  распространения  ошибки;  предсказание  последовательности.

Keywords:  recurrent  perceptron;  algorithms  of  backward  propagation  of  errors;  series  prediction.

 

В  тексте  статьи  приведено  описание  рекуррентного  персептрона  с  симметричными  связями.  Предложенная  модель  интересно  тем,  что  она  может  быть  использована  для  моделирования  обработки  информации  в  микротрубочке  цитосклета  [1—4].  При  этом  возникает  задача  обучения  предложенного  персептрона  для  аппроксимации  заданной  зависимости.  Новизна  поставленной  задачи  состоит  в  том,  что  на  коэффициенты  связи  нейронов  накладывается  дополнительное  ограничение:  любые  два  нейрона  связаны  прямой  и  обратной  связью,  причем  значения  коэффициентов  связи  одинаковы  —  при  этом  данный  персептрон  не  является  аттракторным,  т.  е.  рассматриваемый  персептрон  не  эквивалентен  персептрону  Хопфилда.  Разработка  данного  алгоритма  является  целью  данной  работы.  В  работе  рассматривалась  только  аппроксимация  числовых  последовательностей  (7),  значение  каждого  элемента  которых  зависит  от  конечно  числа  предыдущих  элементов. 

 

                      (1)

 

где:    —  элемент  последовательности  с  индексом  ;

  —  функция,  определяющая  следующий  элемент  последовательности  по    предыдущим  элементам  данной  последовательности. 

Далее  будем  рассматривать  аппроксимацию  функции  (1)  с  помощью  рекуррентного  персептрона  с  симметричными  связями.  В  данной  работе  будем  рассматривать  простую  топологию  такого  персептрона.  Персептрон  будет  состоять  из  двух  слоев,  причем  в  выходном  слое  будет  только  один  нейрон.  Значения  нейронов  в  скрытом  слое  будет  определяться  выражениями  (2)  и  (3);  значения  нейронов  в  выходном  слое  будут  определяться  выражениями  (4)  и  (5).

 

                          (2)

                                                (3)

                                             (4)

                                                  (5)

 

где:    —  потенциал  активации  нейрона  в  скрытом  слое  с  индексом  ;

  —  потенциал  активации  нейрона  в  выходном  слое  ;

  —  компонента  входного  вектора  с  индексом  ,  где  ;

  —  значение  нейрона  в  скрытом  слое  с  индексом  ;

  —  значение  нейрона  в  выходном  слое,  которое  будет  оценкой  элемента  последовательности    с  индексом  ,  вычисленной  персептроном;

  —  коэффициент  связи  компоненты  входного  вектора  с  индексом    и  нейрона  в  скрытом  слое  с  индексом 

  —  коэффициент  связи  нейрона  в  скрытом  слое  с  индексом    с  нейроном  выходным  слое,  одновременно  это  коэффициент  связи  предыдущего  значения  выходного  нейрона  с  нейроном  в  скрытом  слое  с  индексом 

  —  число  нейронов  в  скрытом  слое. 

Процесс  обучения  такого  персептрона,  чтобы  он  аппроксимировал  заданную  последовательность  описываемую  (1),  будет  состоять  в  последовательной  коррекции  значений  коэффициентов  связи  персептрона  методом  градиентного  спуска,  где  изменение  значение  коэффициента  связи  будет  определяться  выражением  (6).

 

                                  (6)

 

где:    —  параметр  скорости  обучения.

Оценка  значения  (6)  вычисляется  с  помощью  алгоритма  обратного  распространения  ошибки  [5].  Значение  (6)  для  коэффициента    будет  равно  (7);  значение  (6)  для  коэффициента    будет  равно  (8).

 

                                 (7)

                                   (8)

 

Также  оценку  значений  (6)  для  коэффициентов    и    можно  вычислить,  используя  (9)  и  (10)  соответственно. 

 

                                   (9)

                          (10)

 

где:    —  дельта  функция.

Т.  к.    в  (2),  где    —  погрешность  аппроксимации,  то  чем  больше  будет  значение  ,  тем  больше  будет  погрешность  оценки  .  Поэтому  логично  наложить  ограничение  на  значения  коэффициентов  ,  где    —  некоторая  константа. 

Далее  будем  рассматривать  четыре  возможные  реализации  алгоритма  обучения  рекуррентного  персептрона:  с  использованием  (7)  и  (8)  (BP7_8),  с  использованием  (7)  и  (8)  с  ограничением  значений  коэффициентов  (BP7_8_bord),  с  использованием  (9)  и  (10)  (BP9_10),  с  использованием  (9)  и  (10)  с  ограничением  значений  коэффициентов  (BP9_10_bord).

Экспериментальное  сравнение  предложенных  реализаций  было  приведено  на  задаче  предсказания  последовательности  значений  процесса  Маккея-Гласса  [6].  Данная  последовательность  описывается  выражением:

 

                                (10)

 

где  .  Пример  такой  последовательности  приведен  на  рисунке  1.

 

Рисунок  1.  График  последовательности  Маккея-Гласса

 

В  эксперименте  использовалась  последовательность,  состоящая  из  5000  элементов  такой  последовательности.  Первые  1000  не  рассматривались.  2000  элементов  использовались  как  обучающая  выборка,  1000  использовались  как  тестовая  выборка,  1000  элементов  использовались  как  валидационную  выборку.  Обучающая  выборка  использовалась  для  оценки  значений  (6).  По  тестовой  выборке  определялась  остановка  процесса  обучения.  Валидационной  выборке  определялась  окончательная  ошибка  равная  (11).

 

                                      (11)

 

Количество  нейронов  в  скрытом  слое  во  всех  рассматриваемых  персептронах  было  равно  5.  В  результате  были  получены  следующие  данные  для  ошибки  на  валидационной  выборке,  приведенные  в  таблице  1.

Таблица  1.

Название  таблицы

Тип  сети


BP7_8


BP7_8_bord


BP9_10


BP9_10_bord


Значение  ошибки


1.1023


0.0188


1.1223


0.0592

 

Наилучшие  результаты  были  получены  для  алгоритма  обучения  с  использованием  (7)  и  (8)  с  ограничением  коэффициентов  связи  .  Причем  результаты  для  алгоритмов  с  ограничениями  коэффициентов  связи    лучше  на  порядки  результатов  алгоритмов  без  ограничения. 

Из  чего  можно  сделать  вывод,  что  для  предложенного  персептрона  применим  алгоритм  обучения  обратного  распространения  ошибки  со  следующими  модификациями:  градиент  оценивается  по  (7)  и  (8),  на  значения  коэффициентов  связи  накладывается  ограничение.

 

Список  литературы:

1.Слядников  Е.Е.  Физическая  модель  и  ассоциативная  память  информационной  биомакромолекулы  //  Журнал  технической  физики.  —  2007.  —  Т.  32.  —  №  8.  —  С.  52—59.

2.Слядников  Е.Е.  О  взаимосвязи  физических  и  информационных  характеристик  в  окрестности  точки  сегнетоэлектрического  перехода  в  системе  микротрубочки  цитоскелета  //  Журнал  технической  физики.  —  2009.  —  Т.  79.  —  №  7.  —  С.  1—12.

3.Слядников  Е.Е.  Микроскопическая  модель  и  фазовая  диаграмма  дипольной  системы  микротрубочки  цитоскелета  при  конечных  температурах  //  Журнал  технической  физики.  —  2010.  —  Т.  80.  —  №  5.  —  С.  32—39.

4.Слядников  Е.Е.  Физические  основы,  модели  представления  и  распознавания  образов  в  микротрубочке  цитоскелета  нейрона  //  Журнал  технической  физики.  —  2011.  —  Т.  81.  —  №  12.  —  С.  1—33.

5.Rumelhart,  David  E.;  Hinton,  Geoffrey  E.,  Williams,  Ronald  J.  Learning  representations  by  back-propagating  errors  //Nature.  —  1986.  —  vol.  323.  —  №  6088.  —  P.  533—536.

6.Mackey  M.C.,  L.  Glass.  Oscillation  and  chaos  in  physiological  control  systems  //  Science.  —  1977.  —  vol.  197.  —  №  4300.  —  P.  287—289.

Проголосовать за статью
Дипломы участников
У данной статьи нет
дипломов

Оставить комментарий

Форма обратной связи о взаимодействии с сайтом
CAPTCHA
Этот вопрос задается для того, чтобы выяснить, являетесь ли Вы человеком или представляете из себя автоматическую спам-рассылку.