Телефон: 8-800-350-22-65
WhatsApp: 8-800-350-22-65
Telegram: sibac
Прием заявок круглосуточно
График работы офиса: с 9.00 до 18.00 Нск (5.00 - 14.00 Мск)

Статья опубликована в рамках: XLIII-XLIV Международной научно-практической конференции «Экспериментальные и теоретические исследования в современной науке» (Россия, г. Новосибирск, 12 августа 2019 г.)

Наука: Информационные технологии

Скачать книгу(-и): Сборник статей конференции

Библиографическое описание:
Алексеев И.П. ПРОБЛЕМА ПОНИМАНИЯ В ОБЛАСТИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА // Экспериментальные и теоретические исследования в современной науке: сб. ст. по матер. XLIII-XLIV междунар. науч.-практ. конф. № 13-14(39). – Новосибирск: СибАК, 2019. – С. 5-8.
Проголосовать за статью
Дипломы участников
У данной статьи нет
дипломов

ПРОБЛЕМА ПОНИМАНИЯ В ОБЛАСТИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

Алексеев Илья Петрович

старший преподаватель Казанского государственного энергетического университета

РФ, г. Казань

АННОТАЦИЯ

В статье рассматриваются понятие понимания с точки зрения искусственного интеллекта и возможность реализации понимания в технических системах.

 

Ключевые слова: искусственный интеллект, понимание.

 

Проблему понимания в области искусственного интеллекта затрагивали многие исследователи. Что есть «понимание»? Понимание — универсальная операция мышления, связанная с усвоением нового содержания, включением его в систему устоявшихся идей и представлений. Возможно ли выразить эту операцию с помощью алгоритмов или для этого требуются более сложные действия?

Многие утверждают, что понимание нельзя реализовать с помощью алгоритмов, т.к. многочисленные попытки в этом направлении не привели к успеху, и что понимание в принципе невозможно смоделировать либо моделирование будет теоретически возможным, но практически невыполнимым.

С.И. Голенков считает, что понимание – не процесс, протекающий по какому-то правилу или порядку. Понимание есть событие, которое не происходит во времени. Событие мгновенно, оно не является временным. У понимания нет алгоритма, нет правил и процедур, которые бы описывали совершение понимания[1].

На первый взгляд так и есть. Падение яблока на голову Ньютона тоже можно назвать мгновенным как и следующее за этим понимание принципа гравитации. Однако если принять во внимание ограниченность нашего восприятия и рассмотреть эти события внимательнее, то легко заметить, что падение яблока - это процесс, который можно разделить на несколько подпроцессов: движение яблока до соударения, само соударение и последующее движение. Процесс удара имеет начало, некоторую продолжительность и конец. Поэтому, несмотря на кажущуюся нам моментальность этого события, соударение также является процессом.

То же самое происходит и с пониманием в мозгу человека. Любая мысль сопровождается прохождением электрических импульсов по нейронам головного мозга и по достижении некоторого определённого устойчивого состояния группы нейронов мы можем говорить о понимании чего-либо. Пока связи между нейронами слабы, вся конструкция нестабильна, поэтому это можно назвать пограничным состоянием предшествующим пониманию. Если последующий опыт будет укреплять эти связи, то в некоторый момент система перейдёт в достаточно устойчивое состояние. Этот переход будет восприниматься нами как «понимание».

Таким образом, можно прийти к выводу, что понимание это процесс, требующий определённых условий. Следовательно можно разработать алгоритм и смоделировать его.

Некоторые приводят аргумент «Китайской комнаты» Сёрла как пример того, что машина никогда не научится понимать то, что она делает.

Представим себе изолированную комнату, в которой находится Джон Сёрл, который не знает ни одного китайского иероглифа. Однако у него есть записанные в книге точные инструкции по манипуляции иероглифами вида «Возьмите такой-то иероглиф из корзинки номер один и поместите его рядом с таким-то иероглифом из корзинки номер два», но в этих инструкциях отсутствует информация о значении этих иероглифов и Сёрл просто следует этим инструкциям подобно компьютеру.

Наблюдатель, знающий китайские иероглифы, через щель передаёт в комнату иероглифы с вопросами, а на выходе ожидает получить осознанный ответ. Инструкция же составлена таким образом, что после применения всех шагов к иероглифам вопроса они преобразуются в иероглифы ответа. Фактически инструкция — это подобие компьютерного алгоритма, а Сёрл исполняет алгоритм так же, как его исполнил бы компьютер[3].

В такой ситуации наблюдатель может отправить в комнату любой осмысленный вопрос (например, «Какой цвет вам больше всего нравится?») и получить на него осмысленный ответ (например, «Синий»), как при разговоре с человеком, который свободно владеет китайской письменностью. При этом сам Сёрл не имеет никаких знаний об иероглифах и не может научиться ими пользоваться, поскольку не может узнать значение даже одного символа. Сёрл не понимает ни изначального вопроса, ни ответа, который сам составил. Наблюдатель, в свою очередь, может быть уверен, что в комнате находится человек, который знает и понимает иероглифы. Таким образом Сёрл заключает, что хотя такая система и может пройти тест Тьюринга, но при этом никакого понимания языка внутри системы не происходит, а значит тест Тьюринга не является адекватной проверкой мыслительных способностей[2].

Машина, выполняющая инструкции для решения некоторой задачи, не понимает то, что она делает, так же, как и человек в китайской комнате. Нейронная сеть, определяющая присутствие некоторого объекта на изображении, не понимает на что она смотрит и что она видит, она просто находит зависимости между различными наборами чисел, полученными из пикселей.

Однако человек, в отличие от программ и механизмов обладает способностью понимать свои действия, прогнозировать результат в случае их изменения. Может понимание является отличительной чертой только живых существ, в частности человека? В чём принципиальное отличие?

Трудно провести грань между примитивным выполнением инструкций (человек в китайской комнате) и осознанной деятельностью (наша с вами повседневная жизнь). В какой-то момент человек может сказать, что понимает, что он делает, однако трудно сказать когда именно наступает этот момент и можно ли вообще его выделить.

Когда мы учимся решать задачи, мы сначала действуем по примеру, не понимая что и зачем мы делаем, почему так или иначе. По мере накопления опыта мы начинаем «понимать», то есть наши действия становятся более осмысленными, мы обрабатываем и внедряем эту информацию в нашу систему.

Если же при обучении использовать минимальный ограниченный набор информации (как в случае с нейронными сетями), то наше понимание не будет отличаться от машинного.

Психолог-самоучка использует на пациенте некоторый случайно обнаруженный им психологический приём, не зная, что у него есть название и в чём его внутренний смысл, и добивается при этом положительного результата. Актёр без специального образования, использующий различные техники, не зная о их существовании, делает так потому что чувствует, что в данной ситуации они лучше всего помогут ему раскрыть роль. Это очень похоже на работу нейронных сетей, однако нельзя сказать, что они понимают, что именно они делают.

Невозможно добиться у человека или технической системы понимания без достаточно большой базы знаний. Есть старая притча о нескольких слепцах, впервые встретивших слона. Каждый из них прикоснулся к одной из различных частей слона: боку, бивню, хвосту, ноге и т.д. и на основании этого у них сложилось своё представление слона, причём все они были различны. Не имея достаточно каналов информации, трудно добиться «настоящего» понимания. А настоящее понимание недостижимо, так как для него требуется знать абсолютно всё об объекте, что в принципе невозможно.

Когда человек видит что-то новое, зрительный отдел его мозга, впервые получая такой сигнал от зрительного нерва, не может его классифицировать, то есть понять что находится в поле зрения человека. Для этого человеку необходимо задействовать также и остальные органы восприятия. Чем больше каналов восприятия задействовано, тем более полным будет представление этого предмета человеком.

Таким образом, реализовать понимание окружающей нас реальности техническими системами можно только в том случае, если мы будем обучать эти системы с использованием наборов различных типов данных. Чем больше ограничений в системе, тем проще конструировать и настраивать такую систему, но тем меньше результат работы такой системы будет похож на результат человеческой деятельности. Поэтому наиболее перспективной представляется идея разработки систем, изначально обучающихся на различных типах данных, либо объединяющих модули, работающие с разными типами данных.

 

Список литературы:

  1. Голенков С.И. Искусственный интеллект и проблема понимания // Перспективные информационные технологии (ПИТ 2018) [Электронный ресурс]: труды Международной научно-технической конференции / под ред. С.А. Прохорова. – Электрон. текстовые и граф. дан. (34,4 Мбайт). – Самара: Издательство Самарского научного центра РАН, 2018. – С. 1353-1357
  2. Тьюринг 4.  Тьюринг, А. Может ли машина мыслить? (С приложением статьи Дж. фон Неймана Общая и логическая теория автоматов») [Электронный ресурс] / Аллан Тьюринг. – М.: ГИФМЛ, 1960. –  с. 1-26. – Режим доступа: http://elib.ict.nsc.ru/jspui/bitstream/ICT/885/5/CantheMachinethink.pdf [Дата обращения: 6 июля 2019].
  3. Searle, J. R. Minds, brains, and programs [Электронный ресурс] / John R. Searle  // Электрон. текстовые дан.  – Behavioral  and Brain Sciences 3 (3). – pgs 417-457.  –  Режим доступа: http://cogprints.org/7150/1/10.1.1.83.5248.pdf  [Дата обращения: 6 июля 2019].
Проголосовать за статью
Дипломы участников
У данной статьи нет
дипломов

Оставить комментарий

Форма обратной связи о взаимодействии с сайтом
CAPTCHA
Этот вопрос задается для того, чтобы выяснить, являетесь ли Вы человеком или представляете из себя автоматическую спам-рассылку.