Поздравляем с Новым Годом!
   
Телефон: 8-800-350-22-65
WhatsApp: 8-800-350-22-65
Telegram: sibac
Прием заявок круглосуточно
График работы офиса: с 9.00 до 18.00 Нск (5.00 - 14.00 Мск)

Статья опубликована в рамках: XLIII Международной научно-практической конференции «Научное сообщество студентов XXI столетия. ТЕХНИЧЕСКИЕ НАУКИ» (Россия, г. Новосибирск, 28 июня 2016 г.)

Наука: Информационные технологии

Скачать книгу(-и): Сборник статей конференции

Библиографическое описание:
Быканов Н.П. СРАВНЕНИЕ НЕЙРОСЕТЕВЫХ МОДЕЛЕЙ // Научное сообщество студентов XXI столетия. ТЕХНИЧЕСКИЕ НАУКИ: сб. ст. по мат. XLIII междунар. студ. науч.-практ. конф. № 6(42). URL: https://sibac.info/archive/technic/6(42).pdf (дата обращения: 25.12.2024)
Проголосовать за статью
Конференция завершена
Эта статья набрала 0 голосов
Дипломы участников
У данной статьи нет
дипломов

СРАВНЕНИЕ НЕЙРОСЕТЕВЫХ МОДЕЛЕЙ

Быканов Никита Павлович

студент 4 курса, кафедра Систем управления и компьютерных технологий, г. Санкт-Петербург

Снижко Елена Александровна

научный руководитель,

канд. пед. наук, доцент, кафедра «Информационные системы и компьютерные технологии»,

Балтийский государственный технический университет «Военмех» им. Д.Ф. Устинова,

г. Санкт-Петербург

Нейронные сети, называемые персептронами (от лат. perceptio – восприятие), представляют математическую модель процесса восприятия образов. Эта модель реализуется в виде слоев нейронов: рецепторного слоя и одного или нескольких слоев преобразующих нейронов [1, c.56]. Под обучением многослойного персептрона понимается процесс адаптации сети к предъявленным эталонным образцам путем модификации весовых коэффициентов связей между нейронами.

Сети адаптивного резонанса — разновидность искусственных нейронных сетей основанная на теории адаптивного резонанса Стивена Гроссберга и Гейла Карпентера [2, c.35].

В сетях адаптивной резонансной теории (АРТ) предпринимается попытка приблизить механизм запоминания образов в ИНС к биологическому. Результатом работы АРТ является устойчивый набор запомненных образов и возможность выборки "похожего" образа по произвольному вектору, предъявленному на вход сети. Важное качество АРТ динамическое запоминание новых образов без полного переобучения и отсутствие потерь уже запомненных образов при предъявлении новых.

Для обучения нейронной сети c помощью персептрона выбираются четыре образца из предлагаемых изображений. Образцы для обучения сети представлены на рисунке 1.

Рисунок 1. Образцы рисунков для обучения сети.

В процессе обучения производится тестирование обобщающих свойств сети. Для этого формируется тестовая выборка из восьми образцов. В качестве тестовых образцов используются условно «искаженные» обучающие образцы. Для этого из каждого обучающего образца формируются два условно «поцарапанных» образца – в них часть точек не «белого» цвета заменяется на «белый».

Для тестовых образцов вычисляется ошибка на выходе сети, но она не используется для корректировки весовых коэффициентов.

Сеть обучается методом обратного распространения ошибки.

На рисунках 2 и 3 представлены результаты выполнения программы в момент обучения и в момент расчета.

Рисунок 2. Обучение сети.

Рисунок 3. Расчет сети.

 

Для реализации сети АРТ-1 рассмотрим набор примеров для обучения из 5 образцов. Каждый образец – это символ, состоящий из 12 точек (матрица 4х3). Точка может быть белой (Хi = 0) или черной (Хi = 1). Пример образца представлен на рисунке 4.

Рисунок 4. Пример для обучения сети АРТ.

 

Кодировка образца: 0100 0110 1101

Образцы последовательно подаются на вход сети.

Параметр – «порог сходства» по умолчанию:

 – 0.8 (предусмотреть возможность его изменения).

Задание:

1.        Определить количество обученных нейронов в слое распознавания.

2.        Определить весовые коэффициенты Bj и Tj обученных нейронов.

3.        Показать образцы, запомненные обученными нейронами.

Выполнение задания представлено на рисунке 5.

 

Рисунок 5. Обучение сети АРТ.

 

Типовые задачи, решаемые в контексте ИНС и представляющие научный и практический интерес, можно подразделить следующим образом:

1. Классификация образов. Задача состоит в указании принадлежности входного образа (например, речевого сигнала или рукописного символа), представленного вектором признаков, одному или нескольким предварительно определенным классам. К известным приложениям относятся распознавание букв, распознавание речи, классификация сигнала электрокардиограммы, классификация клеток крови [2, c.77].

2. Кластеризация/категоризация. При решении задачи кластеризации, которая известна также как классификация образов «без учителя», отсутствует обучающая выборка с метками классов. Алгоритм кластеризации основан на подобии образов и размещает близкие образы в один кластер. Кластеризация применяется для извлечения знаний, сжатия данных и исследования их свойств.

Таким образом, с помощью многослойного персептрона, используя алгоритм обратного распространения ошибки, можно решать задачи классификации, а при решении задач кластеризации можно использовать сети адаптивной резонансной теории.

 

Список литературы:

  1. Головко В.А., под ред. проф. А.И.Галушкина Нейронные сети: обучение, организация и применение. - Москва: ИПРЖР, 2001 г. – 230 с.
  2. Толмачев С.Г., Системы искусственного интеллекта. Нейросетевые модели: учебное пособие, Балт. гос. техн. ун-т. – СПб., 2011 г. – 170 с.
Проголосовать за статью
Конференция завершена
Эта статья набрала 0 голосов
Дипломы участников
У данной статьи нет
дипломов

Оставить комментарий