Телефон: +7 (383)-312-14-32

Статья опубликована в рамках: XCV Международной научно-практической конференции «Научное сообщество студентов: МЕЖДИСЦИПЛИНАРНЫЕ ИССЛЕДОВАНИЯ» (Россия, г. Новосибирск, 18 июня 2020 г.)

Наука: Информационные технологии

Скачать книгу(-и): Сборник статей конференции

Библиографическое описание:
Декалюк А.О. БОЛЬШИЕ ДАННЫЕ И МЕТОДЫ ИХ ОБРАБОТКИ // Научное сообщество студентов: МЕЖДИСЦИПЛИНАРНЫЕ ИССЛЕДОВАНИЯ: сб. ст. по мат. XCV междунар. студ. науч.-практ. конф. № 12(95). URL: https://sibac.info/archive/meghdis/12(95).pdf (дата обращения: 30.11.2020)
Проголосовать за статью
Конференция завершена
Эта статья набрала 0 голосов
Дипломы участников
У данной статьи нет
дипломов

БОЛЬШИЕ ДАННЫЕ И МЕТОДЫ ИХ ОБРАБОТКИ

Декалюк Анастасия Олеговна

студент, кафедра бизнес-информатики и математического моделирования Крымский федеральный университет им. В.И. Вернадского,

РФ, г. Симферополь

BIG DATA AND ITS PROCESSING METHODS

 

Anastasiya Dekalyuk

student, Department of business informatics and mathematical modeling, V.I. Vernadsky Crimea Federal University (CFU),

Russia, Simferopol

 

АННОТАЦИЯ

Технологии Big Data уже используются повсеместно. В бизнесе это позволяет повышать эффективность и прибыль компании, в обычной жизни – приводит к упрощению некоторых действий. Анализ больших данных позволяет получать конкретные и полезные результаты для дальнейшего их эффективного использования.

ABSTRACT

Big Data technologies are already being used everywhere. In business, this allows you to increase the efficiency and profit of the company, in ordinary life-it leads to simplification of some actions. Big data analysis allows you to get specific and useful results for further effective use.

 

Ключевые слова: большие данные, метод, машинное обучение.

Keywords: Big Data, method, machine learning.

 

В мире технологических возможностей и постоянного быстрорастущего потока данных был представлен такой термин, как большие данные. Большие данные или Big Data представляют собой структурированные и неструктурированные данные огромных размеров, которые обрабатываются различными программными инструментами.

Сам термин впервые был использован редактором журнала Nature Клиффордом Линчем в 2008 году, где он обратил внимание на бурный рост объемов мировой информации. Он дал понимание тому, что более развитые технологии помогут освоению и более качественному анализу больших данных.

Big Data обладает некоторыми признаками, которые зашифровали в правило VVV: volume, velocity, variety. То есть, данные должны обладать объемом, присутствует постоянная обработка обновляющихся данных и возможность данных принимать неоднородные форматы, быть частично структурированными или неструктурированными [1].

Анализируя и сравнивания большой объем информации, часто находятся определенные взаимосвязи. Так, становится возможным прогнозировать дальнейшие события. Вспомогательным элементом для человека в таких ситуациях выступает искусственный интеллект. Предоставление нейросетям возможности анализировать терабайты информации в виде фотографий, видео или прочего, дает определенный результат, например, прогнозирование пробок на дорогах в ближайшее время.

В сравнении с традиционной аналитикой, Big Data имеет значительные преимущества. Появляется возможность обработки всего массива представленных данных, отпадает нужда в сортировке данных, также, данные обрабатываются по мере их поступления [2].

Основными поставщиками данных в России выступают поисковые системы. Для этого у них существует достаточно технологическая база для новых сервисов, а также имеют доступ к большим массивам данных.

Для обработки больших данных были разработаны некоторые методы, которые успешно используются на данный момент. Международная компания McKinsey, которая специализируется на задачах стратегического управления, выделила несколько методов Big Data:

  1. Data Mining (интеллектуальный анализ данных) представляет собой совокупность методов поиска нетривиальной, неизвестной ранее и полезной информации, которая необходима для принятия решений. В состав Data Mining входят классификация, кластерный и регрессионный анализ, анализ отклонений и др.
  2. Краудсорсинг. Происходит передача некоторых задач неопределенному кругу лиц, которые с помощью своего опыта и знаний их решают, при этом трудовой договор не подписывается.
  3. Смешение и интеграция данных. Для проведения глубинного анализа используются данные из различных источников с использованием некоторого набора техник.
  4. Машинное обучение. Используются обучение с учителем и без учителя. На основе моделей статистического анализа создается комплексный прогноз на основе базовых моделей.
  5. Искусственные нейронные сети. В данный метод входят и генетические алгоритмы. С помощью них решаются задачи оптимизации и моделирования за счет случайного подбора, комбинирования искомых параметров. Для этого используются определенные механизмы, которые схожи с естественным отбором в природе.
  6. Распознавание образов.
  7. Прогнозная аналитика.
  8. Имитационное моделирование. Имитацией является численный метод проведения на компьютерах экспериментов с математическими моделями, описывающих поведение сложных систем в течении продолжительных периодов времени. Имитационное моделирование возможно рассматриваться как вид экспериментальных исследований.
  9. Пространственный анализ. Такой вид анализа использует различные геоданные для выявления дополнительной необходимой информации.
  10. Статистический анализ. Производится анализ временных рядов, A/B-тестирование – при таком методе исследования одну группу параметров сравнивают с несколькими тестовыми группами, в которых некоторые показатели подвергаются изменению. Это производится для выявления изменений, которые могут улучшить целевой показатель.
  11. Визуализация аналитических данных. Информация представляется в формате рисунков или диаграмм, в которые могут быть включены элементы анимации или использование интерактивных возможностей. Таким образом можно показать результаты анализа больших данных в удобном виде для восприятия человеком [3].

В докладе The Data Age 2025 от компании IDC было спрогнозировано, что в 2020 году будет сформировано около 40-44 зеттабайтов (1 зеттабайт = 1024 эксабайта; 1 эксабайт = 1 млрд гигабайтов) информации. К 2025 году это число увеличится в 10 раз. На данный момент, происходит активная интеграция Big Data на предприятия. Будущим больших данных представляются технологии Blockchain, переход на облачные хранилища данных, которые сохраняют ресурсы предприятия, внедрение искусственного интеллекта, а также исследование Dark Data – неоцифрованной информации о компании [4].

 

Список литературы:

  1. Big Data [Электронный ресурс]. – Режим доступа: https://www.calltouch.ru/glossary/big-data/ (дата обращения: 16.06.2020)
  2. Технологии Big Data: как использовать большие данные в маркетинге [Электронный ресурс]. – Режим доступа: https://www.uplab.ru/blog/big-data-technologies/ (дата обращения: 16.06.2020)
  3. Big Data, методы и техники анализа больших данных [Электронный ресурс]. – Режим доступа: https://www.it.ua/ru/knowledge-base/technology-innovation/big-data-bolshie-dannye (дата обращения: 16.06.2020)
  4. Что такое Big Data [Электронный ресурс]. – Режим доступа: https://rb.ru/howto/chto-takoe-big-data/ (дата обращения: 16.06.2020)
Проголосовать за статью
Конференция завершена
Эта статья набрала 0 голосов
Дипломы участников
У данной статьи нет
дипломов

Оставить комментарий

Форма обратной связи о взаимодействии с сайтом