Статья опубликована в рамках: LXX Международной научно-практической конференции «Научное сообщество студентов: МЕЖДИСЦИПЛИНАРНЫЕ ИССЛЕДОВАНИЯ» (Россия, г. Новосибирск, 03 июня 2019 г.)
Наука: Информационные технологии
Скачать книгу(-и): Сборник статей конференции
дипломов
ОБЗОР МЯГКИХ ВЫЧИСЛЕНИЙ
Мягкие вычисления стоят из группы методов, которые обеспечивают решение задач с неточным выводом. Данные методы используют подход, при котором используются частично истинные выражения, неопределенности и приближения. А это в свою очередь позволяет работать в тех областях, где «жесткие» математические вычисления не пригодны для решения задачи.
Рассмотрим некоторые методы, мягких вычислений.
Нечеткая логика
В 1965 году Лофти Заде представил новый тип теории множеств, называемый нечеткими множествами, который позволяет представлять понятия, которые не определены четко. Нечеткие множества позволяют элементу принадлежать множеству со степенью принадлежности (а не только двоичной степени). Эта концепция включает в себя[1]:
- Нечеткие множества. В нечеткой логике нечеткие множества определяют лингвистические понятия, а функции принадлежности определяют истинную ценность таких лингвистических выражений. Степень принадлежности объекта к нечеткому множеству принимает значения от 0 до 1, где 1 означает полностью в наборе, 0 означает полностью не в наборе, а другие значения означают частично в наборе. Степень принадлежности объекта к нечеткому множеству определяется как функция, где универсумом дискурса является область, а интервалом [0,1] является диапазон. Набор нечетких множеств, называемый нечеткими, определяет нечеткие лингвистические значения или нечеткие классы, к которым может принадлежать объект. Таким образом, нечеткие множества позволяют объекту принадлежать разным классам одновременно (с определенной степенью принадлежности).
- Нечеткие логические выражения.
- Нечеткие правила. Нечеткие правила могут быть определены многими различными способами. Мы рассматриваем нечеткое правило следующим образом: если условие то, после чего условие является сложным нечетким выражением, то есть логическим выражением, которое использует нечеткие логические операторы и атомные нечеткие выражения, а последующее является атомным выражением.
Эволюционные алгоритмы (ЭА)
ЭА - это метод оптимизации, основанный на принципах естественной эволюции. Существует несколько разных версий советников, таких как эволюционные стратегии и генетические алгоритмы. Основными отличиями между ними являются используемая схема кодирования и используемые механизмы эволюции в метод генерации популяции[2].
Классификация
Классификация - это контролируемая методика обучения, которая берет помеченные выборки данных и генерирует модель (классификатор), которая классифицирует новые выборки данных в различные предопределенные группы или классы. Классификация широко изучалась в области машинного обучения и интеллектуального анализа данных.
2.5.3 Классификация аномалий
Проблема классификации аномалий (обнаружение аномалий) - это проблема классификации двух классов, в которой приведены только образцы одного класса (обычно отрицательного класса). В основном есть три различных подхода к классификации аномалий:
1. Отрицательная характеристика: отрицательные образцы (нормальные образцы) используются для построения модели отрицательного пространства; например, путем генерации набора правил (детекторов), которые могут распознавать положительные образцы (аномальные паттерны).
2. Положительная характеристика: отрицательные образцы используются для построения модели отрицательного пространства; например, набор правил, определяющих отрицательное пространство.
3. Генерация искусственных аномалий: отрицательные выборки используются для генерации искусственных (положительных) выборок, а методика обучения классификатора используется для генерации классификатора.
Кластеризация
Кластеризация - это неконтролируемая методика обучения, которая берет непомеченные точки данных (записи данных) и классифицирует их на различные группы или кластеры. Это делается таким образом, чтобы точки, назначенные одному кластеру, имели высокое сходство, тогда как сходство между точками, назначенными различным кластерам, было низким. Были разработаны различные методы кластеризации. Наиболее важными типами методов кластеризации являются иерархическая агломерация, разбиение, надежные и неконтролируемые. Кластеризация тоже делиться на несколько видов.
- Иерархическая агломерационная кластеризация. Метод иерархической кластеризации назначает каждую выборку данных одному кластеру, объединяет кластеры в итеративном процессе и останавливается, когда остается только один кластер. Кластеры объединяются на основе некоторого понятия расстояния или меры сходства.
- Кластеризация разделов. Техника кластеризации разделов начинается с выбора k выборок из набора данных, подлежащих кластеризации. Такие образцы определяют начальный набор кандидатов кластерных центров. Затем он назначает выборки таким кластерам на основе некоторого понятия расстояния или меры сходства. Наконец, кластерные центры-кандидаты пересчитываются. Этот процесс повторяется до тех пор, пока не будут достигнуты некоторые критерии остановки . Обычно этот критерий остановки определяется согласно некоторой функции оптимизации.
- Надежная кластеризация. Многие методы кластеризации основаны на предположении, что набор данных соответствует определенному распределению и не содержит шумов. Техника кластеризации, способная управлять зашумленной информацией, называется надежной.
- Неуправляемая кластеризация. Хотя методы кластеризации - это неконтролируемые методы обучения, многие из них требуют заранее определенного количества кластеров. Техника кластеризации, которая не требует заранее определенного количества кластеров, называется неконтролируемой(неуправляемой).
- Мягкая кластеризация.
Бейсовский сети
Направленные графические модели (или Байесовские сети) представляют собой семейство распределений вероятностей, которые допускают компактную параметризацию, которая может быть естественным образом описана с использованием ориентированного графа.
Искусственные нейронные сети (ANN)
Это вычислительные системы, которые вдохновлены, но не обязательно идентичны биологическим нейронным сетям , составляющим мозг животных . Такие системы «учатся» выполнять задачи, рассматривая примеры, как правило, без программирования какими-либо правилами для конкретных задач. Например, при распознавании изображений они могут научиться идентифицировать изображения, содержащие кошек, анализируя примеры изображений, которые были помечены вручную как «кот» или «нет кота» и используя результаты для идентификации кошек на других изображениях. Они делают это без каких-либо предварительных знаний о кошках, например, что у них есть мех, хвосты, усы и кошачьи лица. Вместо этого они автоматически генерируют идентифицирующие характеристики из учебного материала, который они обрабатывают.
ANN основан на наборе связанных блоков или узлов, называемых искусственными нейронами, которые слабо моделируют нейроны в биологическом мозге. Каждое соединение, подобно синапсам в биологическом мозге, может передавать сигнал от одного искусственного нейрона к другому. Искусственный нейрон, который получает сигнал, может обрабатывать его, а затем сигнализировать о подключении к нему дополнительных искусственных нейронов.
Список литературы:
- F. Aminzadeh and M. Jamshidi. Soft Computing. Prentice Hall, 1994
- S. Bridges and R. Vaughn. Fuzzy DataMining and Genetic Algorithms Applied to Intrusion Detection. In Twenty Third National Information Security Conference, Oct. 2000.
дипломов
Оставить комментарий