Статья опубликована в рамках: Научного журнала «Студенческий» № 17(17)
Рубрика журнала: Информационные технологии
Скачать книгу(-и): скачать журнал часть 1, скачать журнал часть 2
ОБЗОР ОДНОСЛОЙНОЙ НЕЙРОННОЙ СЕТИ
Аннотация
В этой статье предлагается краткий обзор истории и основных концепций машинного обучения. Мы рассмотрим первую алгоритмически описанную нейронную сеть в контексте адаптивных линейных нейронов, который будет не только вводить принципы машинного обучения, но и послужить основой для современных многослойных нейронных сетей.
Введение
Машиноведение является одним из самых популярных и захватывающих направлений в современную эпоху технологий. Благодаря компьютерному обучению мы используем надежные фильтры от спама в электронной почте, удобным текстовым и голосовым распознаванием, надежными поисковыми машинами в интернете и надеюсь, в ближайшее время, безопасными и эффективными беспилотными автомобилями.
Без сомнения, машинное обучение стало большой и популярной областью. Таким образом, было бы целесообразно изучить различные алгоритмы машинного обучения более подробно.
Машинное обучение - класс методов искусственного интеллекта, характерной чертой которых является не прямое решение задачи, а обучение в процессе применения решений множества сходных задач. Для построения таких методов используются средства математической статистики, численных методов, методов оптимизации, теории вероятностей, теории графов, различные техники работы с данными в цифровой форме.
Искусственные нейроны и модель МакКаллоха-Питтса
Первоначальная идея персептрона упоминается к работе Уоррена МакКаллоха и Уолтера Пистса в 1943 году, которые провели аналогию между биологическими нейронами и простыми логическими выходами с двоичными выходами.
Рисунок 1. Общая схема нейрона
Где Input – это вход, Output –Выход, Dendrites – дендриты, Cell nucleus – ядро нейрона, Axon – аксон.
В более интуитивных терминах нейроны можно понимать как субъединицы нейронной сети в биологическом мозге. Здесь сигналы переменных величин поступают к дендритам. Затем эти входные сигналы накапливаются в теле клетки нейрона, и если накопленный сигнал превышает определенный порог, то генерируется выходной сигнал, который будет передаваться аксоном.
Персептрон Фрэнка Розенблатта
Перцептрон, или персептрон — математическая или компьютерная модель восприятия информации мозгом.
Чтобы продолжить рассказ, спустя несколько лет после Маккаллоха и Уолтера Питта, Фрэнк Розенблатт опубликовал первую концепцию правила обучения Персептрону. Основная идея заключалась в том, чтобы алгоритм узнавал значения весов - w, которые затем умножаются на входные функции, чтобы принять решение о том, выбирать этот нейрон или нет. В контексте классификации шаблонов такой алгоритм может быть полезен для определения того, относится ли образец к тому или иному классу.
Рисунок 2. Пример границы линейного решения для двоичной классификации
Задача состоит в том, чтобы предсказать, к какой из двух возможных категорий принадлежит определенная точка данных, на основе набора входных переменных.
Правило обучения персептрона
Это может показаться крайним случаем редукционистского подхода, но идея этого «порогового» персептрона заключалась в том, чтобы подражать тому, как работает один нейрон в мозге: он либо «срабатывает», либо нет. Чтобы суммировать основные элементы персептрон принимает несколько входных сигналов, и если сумма входных сигналов превышает определенный порог, он либо возвращает сигнал, либо остается «молчащим» в противном случае. То, что сделало это алгоритмом машинного обучения, - это идея Фрэнка Розенблатта о правиле обучения персептрона: алгоритм персептрона заключается в изучении весов для входных сигналов для того, чтобы нарисовать границу линейного решения, что позволяет нам различать два линейно разделяемых класса + 1 и -1.
Рисунок 3. Схема строения персептрона Розенблатта
Заключение
Таким образом, в данной статье был проведен обзор моделей модель МакКаллоха-Питтса, персептрон Фрэнка Розенблатта, правило обучения персептрона и детально рассмотрена схема строения персептрона Розенблатта.
Список литературы:
- Ф. Розенблатт. Персептрон, воспринимающий и распознающий автомат Project Para. Корнеллская авиационная лаборатория, 1957.
- W. S. McCulloch и W. Pitts. Логическое исчисление идей, имманентных в нервной деятельности. Бюллетень математической биофизики, 5 (4): 115-133, 1943.
- С. Хайкин, Нейронные сети: Полный курс. 2006 г.
- B. Recht and C. R ́e. Beneath the valley of the noncommutative arithmetic-geometric mean inequality: conjectures, case-studies, and consequences. arXiv preprint arXiv:1202.4184, 2012.
- Ф. Уоссермен, Нейрокомпьютерная техника: Теория и практика. 1992 г.
- Д. Форсайт, Компьютерное зрение. Современный подход. 2004 г.
Оставить комментарий