Телефон: 8-800-350-22-65
WhatsApp: 8-800-350-22-65
Telegram: sibac
Прием заявок круглосуточно
График работы офиса: с 9.00 до 18.00 Нск (5.00 - 14.00 Мск)

Статья опубликована в рамках: XXXV Международной научно-практической конференции «Научное сообщество студентов: МЕЖДИСЦИПЛИНАРНЫЕ ИССЛЕДОВАНИЯ» (Россия, г. Новосибирск, 18 декабря 2017 г.)

Наука: Информационные технологии

Скачать книгу(-и): Сборник статей конференции

Библиографическое описание:
Лагарникова А.В. ИССЛЕДОВАНИЕ ЗАВИСИМОСТИ ПОГРЕШНОСТИ ОБУЧЕНИЯ И КЛАССИФИКАЦИИ ОТ ЧИСЛА НЕЙРОНОВ СЛОЯ КОХОНЕНА В ГИБРИДНОЙ СЕТИ КОХОНЕНА // Научное сообщество студентов: МЕЖДИСЦИПЛИНАРНЫЕ ИССЛЕДОВАНИЯ: сб. ст. по мат. XXXV междунар. студ. науч.-практ. конф. № 24(35). URL: https://sibac.info/archive/meghdis/24(35).pdf (дата обращения: 27.04.2024)
Проголосовать за статью
Конференция завершена
Эта статья набрала 1 голос
Дипломы участников
У данной статьи нет
дипломов

ИССЛЕДОВАНИЕ ЗАВИСИМОСТИ ПОГРЕШНОСТИ ОБУЧЕНИЯ И КЛАССИФИКАЦИИ ОТ ЧИСЛА НЕЙРОНОВ СЛОЯ КОХОНЕНА В ГИБРИДНОЙ СЕТИ КОХОНЕНА

Лагарникова Анастасия Вакилевна

студент 1 курса магистратуры, факультет информатики СУ,

РФ, г.Самара

В качестве предметной области были выбраны типы вин. Таким образом, нейронная сеть должна уметь относить вина с заданными характеристиками к тому или иному классу. Для классификации были выбраны три класса вин. Числовые характеристики каждого класса приведены в таблице 1.

Таблица 1.

Числовые характеристики вин

Атрибуты выборки

Классы

1

2

3

1

Alcohol Алкоголь

12.85-14.83

11.03-13.86

12.2-14.34

2

Malic acid Яблочная кислота

1.35-4.04

0,74-5.8

1.24-5.65

3

 Ash Зола

2.04-3.22

1.36-3.23

2.1-2.86

4

Alcalinity of ash Щелочность золы

11.2-25

10.6-30

17.5-27

5

Magnesium Магний

89-132

70-162

80-123

6

Total phenols  Суммарный фенол

2.2-3.88

1.1-3.52

0.98-2.8

7

Flavanoids Флавоноиды

2.19-3.93

0.57-5.08

0.34-1.57

8

Nonflavanoid phenols 

онфлаваноидные фенолы

0.17-0.5

0.13-0.66

0.17-0.63

9

Proanthocyanins Проантоцианидины

1.25-2.96

0.41-3.58

0.55-2.7

10

Color intensity Цветовая интенсивность

3.52-8.9

1.28-6

3.85-13

11

Hue Оттенок

0.82-1.28

0.69-1.71

0.48-0.96

12

OD280/OD315 of diluted wines 

2.51-4

1.59-3.69

1.27-2.47

13

Proline Пролин

680-1680

278-985

415-880

 

Обучающая выборка

В качестве обучающей выборки для модели гибридной сети Кохонена будет использоваться выборка типов вин. Данная обучающая выборка состоит из 178 полей со значениями типа Integer. Пример txt документа выборки представлен на рисунке 1.

 

Рисунок 1. обучающая выборка в документе txt

 

Перед началом работы с обучающей выборкой, необходимо провести предобработку данных выборки. Для корректной работы модели необходимо произвести нормализацию входных векторов, то есть произвести замену существующих значений полей на диапазон значений от 0 до 1. С помощью программной реализации будет произведена нормализация входных векторов.

Обучение гибридной сети Кохонена состоит из двух последовательных этапов.

На первом этапе будет проведено обучение слоя Кохонена. Обучение слоя Кохонена в программе реализовано по алгоритму WTA (Winner Takes All – победитель получает все). Целью обучения сети с самоорганизацией на основе конкуренции, считается такое упорядочение нейронов, которое минимизирует значение отклонения вектора весов от входного вектора x. При p входных векторах x эта погрешность в эвклидовой метрике может быть выражена в виде:

  ,

 - это вес нейрона-победителя при предъявлении вектора.

 

Так как алгоритм WTA – это алгоритм обучения без учителя, то у слоя Кохонена не будет эталонных выходных значений.

На втором этапе будет проведено обучение многослойного персептрона. Входные обучающие векторы персептрона – это выходные векторы слоя Кохонена. При этом эталоны для персептрона сохраняются. Обучение многослойного персептрона в программе реализовано по методу наискорейшего спуска с использованием алгоритма обратного распространения ошибки.

В таблице 4 представлены результаты исследования зависимости погрешности обучения и классификации от числа нейронов слоя Кохонена.

Таблица 4.

Результаты исследований

 

Если число нейронов слоя Кохонена меньше трёх, то модель не будет работать адекватно.

Из таблицы следует, что при количестве нейронов слоя Кохонена равном 10 (и больше), модель гибридной сети обучается наилучшим образом (100% совпадений на обучающей выборке и 100% совпадений на тестовой – рисунок 3)

 

Рисунок 3. Примеры обучения с заданным количеством нейронов слоя Кохонена

 

При исследовании зависимости погрешности обучения и классификации от числа нейронов слоя Кохонена были выявлены следующие результаты, представленные в таблице 5:

Таблица 5.

Исследование погрешности обучения от числа нейронов

Число нейронов (n)

Погрешность обучения (p)

n<3

p>0.06

3≤n≤7

0.02-0.05

n≥8

p>0.01

 

 

Таким образом, для получения наилучшего результата обучения модели оптимальным значением количества нейронов слоя Кохонена будет значение 10 (при условии, что количество нейронов многослойного персептрона равно 5).

 

Список литературы:

  1. Гибридная сеть Кохонена [электронный ресурс]. – Режим доступа: URL: http://stu.scask.ru/book_ns.php?id=92 (Дата обращения: 3.12.2017)
  2. Исследование эффективности решения задачи классификации гибридными сетями Кохонена [электронный ресурс]. – Режим доступа: URL: https://elibrary.ru/item.asp?id=25594318 (Дата обращения: 5.12.2017)
  3. Сети с самоорганизацией на основе конкуренции [электронный ресурс]. – Режим доступа: URL: http://www.igce.comcor.ru/AI_mag/NN/ConcNets/ConcNets.html (Дата обращения: 8.12.2017)
Проголосовать за статью
Конференция завершена
Эта статья набрала 1 голос
Дипломы участников
У данной статьи нет
дипломов

Оставить комментарий

Форма обратной связи о взаимодействии с сайтом
CAPTCHA
Этот вопрос задается для того, чтобы выяснить, являетесь ли Вы человеком или представляете из себя автоматическую спам-рассылку.