Статья опубликована в рамках: XXIX Международной научно-практической конференции «История, политология, социология, философия: теоретические и практические аспекты» (Россия, г. Новосибирск, 03 февраля 2020 г.)
Наука: Философия
Секция: Социальная философия
Скачать книгу(-и): Сборник статей конференции
дипломов
К ВОПРОСУ ОБ ЭТИЧЕСКИХ ПРИНЦИПАХ РАЗВИТИЯ ТЕХНОЛОГИЙ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА
TO THE QUESTION OF ETHICAL PRINCIPLES OF THE DEVELOPMENT OF ARTIFICIAL INTELLIGENCE TECHNOLOGIES.
Alexander Klimovich
«Big Data Laboratory», Finansovyy Universitet Pri Pravitel'stve Rossiyskoy Federatsii,
Russia, Lipetsk
АННОТАЦИЯ
В данной статье делается исторический экскурс возникновения термина искусственный интеллект, проводится краткий анализ этого понятия. Выявляются основные критерии этических требований к технологиям машинного обучения и анализа больших данных. Рассматриваются возможные угрозы применения цифровых технологий для общества и человека, осуществляется краткий обзор причин возникновения этих угроз. Приводятся рекомендации относительно развития искусственного интеллекта в перспективе этической оценки последствий применения упомянутых технологий в современном мире.
ABSTRACT
This article takes a historical excursion into the emergence of the term artificial intelligence, and provides a brief analysis of this concept. The main criteria of ethical requirements for machine learning and big data analysis technologies are identified. Possible threats to the use of digital technologies for society and man are considered, a brief analysis of the causes of these threats is made. Recommendations are given on the development and methodology of the development of artificial intelligence in the future ethical assessment of the consequences of using these technologies in the modern world.
Ключевые слова: Цифровые технологии, искусственный интеллект, большие данные, социальная этика, ответственность, защита данных.
Keywords: Digital technologies, artificial intelligence, big data, social ethics, responsibility, data protection.
Что сулит грядущее расширение использования искусственного интеллекта частным лицам, предприятиям, политическим партиям, другим общественным группам и организациям? Как это отразится на гражданских правах и свободах, на политических процессах, формировании многообразия мнений и принятии решений? Какие этические принципы должны применяться к системам, опирающимся на ИИ? Какие ограничения следует устанавливать для алгоритмов при принятии решений, касающихся здравоохранения, образования, карьеры или финансов? Кто несет ответственность за алгоритмически обоснованные решения? Это лишь некоторые из вопросов, одинаково важных для бизнеса, политики, общества и безопасности, возникающих с наступлением цифровой эры, на пороге которой стоит человечество.
Словосочетание «Искусственный Интеллект», получив в последние несколько лет широкую популярность, воспринимается как термин, связанный с самыми передовыми достижениями технического прогресса. Однако возник он достаточно давно. Еще в 1955 г. математик Джон Маккарти вместе с коллегами из Фонда Рокфеллера подали заявку на продвижение амбициозного проекта. В рамках исследования ученые должны были выяснить, как можно заставить машины формировать абстрактные понятия и решать проблемы, которые до сих пор были посильны лишь человеку. Этот проект получил название «Искусственный интеллект». Позднее группа ученых пришла к выводу, что до тех пор, пока не будет сформировано понимание всех механизмов функционирования интеллекта в пределах точных наук, следует говорить только о вычислительных способностях машин достигать определенные и конкретные цели [1].
С тех пор прошло много десятилетий, в течение которых внимание научного сообщества к ИИ менялось от повышенного интереса до относительного забвения. Но на протяжении всего этого времени исследователи продолжали сопоставлять ИИ с человеческими способностями. Вопрос, какое отношение имеет ИИ к интеллекту человека остается актуальным и по сей день. Самый известный ответ на этот вопрос дал математик Алан Тьюринг. Британский ученый описал эксперимент, который позволил бы определить, когда машина наконец сможет по-настоящему мыслить. Этот эксперимент получил название «Тест Тьюринга» [2]. Со времени возникновения термина ИИ до наших дней для компьютера в качестве критерия мышления ставились задачи возрастающей сложности. Способность играть в умные игры предлагалась как доказательство того, что машина умеет мыслить. В 1996 г. компьютер обыграл чемпиона мира по шахматам [3]. Двадцать лет спустя программа AlphaGo одержала победу над чемпионом мира по игре в ГО - игре, которая значительно превосходит по сложности и вариативности шахматы. Машина научилась самостоятельно разрабатывать стратегии и играла не по принципу механического перебора всех возможных вариантов [4]. Какое-то время казалось, что, если машина научится блефовать, она сможет имитировать характер человеческого мышления. В январе 2017 г. компьютер победил лучших игроков в безлимитный техасский покер. Соревнование длилось 20 дней, в ходе которого ИИ обыграл всех человеческих соперников и набрал около двух миллионов долларов в фишках [5]. Таким образом, машина преодолела множество «тестов» на разумность, которые поставил перед ней человеком, однако утверждать, что она научилась по-настоящему мыслить, все же еще не приходится. Ведь для того, чтобы сравнить человека с ИИ нужно не только оценивать результаты действия компьютера, но и разобраться с вопросом, как именно машины мыслят.
В начале 1940-х годов Уоррен Мак-Калох и Уолтер Питтс разработали идею представления активности нейронов мозга в терминах логики. Ими была предпринята попытка применить структуру нейронных сетей к принципу двоичного счисления. Почти десятилетие спустя перенос открытий из области исследования мозговой активности человека в область построения ИИ продолжился. В 1949 г. психолог Дональд Хебб сформулировал идею, что связи между одновременно активными нейронами усиливаются, а связи между асинхронно активными, ослабевают. Прошло немногим более 10 лет и в 1960-гг. другой психолог Фрэнк Розенблатт доказал этот тезис экспериментально. Позднее он ввел понятие «Перцептрон» (цифровую модель нейрона) и выдвинул тезис, что «в будущем системы обработки информации станут работать на основе статистических, а не логических принципов» [6]. В каком-то смысле Розенблатт задолго предвосхитил резонансное изречение главного редактора журнала «Wired», Криса Андерсона высказавшего мнение, что «ввиду огромного потока данных научные методы уже неактуальны». В 2008 г. в статье «Век петабайтов» он заявил о «конце теории» [7]. Традиционный процесс научного открытия (проверка гипотезы на достоверность с помощью модели основополагающих причин), по утверждению Андерсона, уже отжил свое и заменен статистическим анализом корреляций, в котором нет места теории [8]. Действительно, системы, построенные на нейронных сетях, в отличие от классических алгоритмов, скорее, не программируются, а обучаются.
В последние десятилетия, в связи со значительным продвижением технологий, сильно подешевело хранение данных и многократно выросла скорость их обработки. Благодаря этому стал возможен анализ больших массивов данных с помощью многослойных нейронных сетей. При длительном обучении такие сети оказались способными настраивать свою структуру на обнаружение в исследуемых данных специфических шаблонов, незаметных для классических методов анализа. Под машинным обучением (Machine Learning) подразумевается процедура, в процессе которой алгоритмы, изучая данные и обнаруживая шаблоны, приобретают способность к проявлению поведения, которое с одной стороны является желательным, с другой стороны не является заранее запрограммированным. Машинное обучение с помощью многослойных нейронных сетей называется глубоким обучением (Dеep Lerning). На практике часто применяется специальный вид обучения - обучение с подкреплением (Reinforcement Learning), для которого требуется наличие большого количества данных с известными параметрами. После обучения программы приобретают способность успешно обрабатывать другие массивы данных, не входивших в обучающий объем.
С учетом развития технологий машинного обучения, искусственный интеллект можно определить как адаптивную техническую систему, цель которой заключается в проявлении интеллектуального поведения. Всякая система такого рода должна обладать набором из четырех базовых способностей - восприятия, понимания, действия, и обучения. Основной принцип вычислительных систем: ввод-обработка-вывод, для систем с искусственным интеллектом, дополняется способностью понимания и обучения [9]. Из этого определения следует, что современные системы ИИ способны автономно фиксировать состояние окружающей среды и делать самостоятельные выводы. Но что значит действовать автономно, когда речь идет о работе машины? В каком случае уместно говорить об автономии и могут ли машины обладать свободой? Международная организация по стандартизации определяет автономию робота как способность выполнять поставленную задачу на основе его нынешнего состояния и восприятий без вмешательства человека [10].
Разумное существо, в соответствии с представлениями И.Канта, обладает свободой, которая выражается в способности к самостоятельным суждениям (Urteilskraft) [11]. Для философа автономия лежит в основе нравственной жизни. В автономии сходятся разум и мораль: автономен тот, кто ведет себя разумно и нравственно. Если исходить из предположения, что машина может мыслить, то принцип нравственности, предложенный Кантом, должен распространяться и на действия автономных компьютерных систем.
Моральные Машины
Если машины овладели навыками самостоятельных, автономных действий, то как же обстоят дела в отношении морали? Можно ли спроектировать машины так, чтобы их работа совпадала с нашими представлениями о морали? Этот вопрос имеет вполне практическое значение. Наступило понимание, что с течением времени нас все больше начнут окружать умные помощники. Сегодня повсеместное использование искусственного интеллекта перешло из категории научной фантастики в область конкретных технологических открытий и применения их в экономических, политических и социальных сферах нашего бытия.
Почти 70 лет назад американский фантаст Айзек Азимов сформулировал три фундаментальных закона, которые должны быть положены в основу программирования роботов. Основываясь на этих правилах, предполагалось создание машин, способных действовать в соответствии с этическими ориентирами человека.
Законы роботов, по версии ученого, должны формулироваться так:
1. Робот не должен причинять вред человеческому существу;
2. Робот должен подчиняться приказам, данным ему человеком, - если такая команда не будет противоречить правилу первому;
3. Робот должен защищать свое существование до тех пор, пока эта защита не столкнется с правилом «один» или «два».
Позднее три фундаментальных этических правила были дополнены еще одним, «нулевым»:
0. Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинён вред.
Сам фантаст в своих произведениях пришел к выводу, что задача построения этически безупречного робота на практике оказывается далеко не тривиальной.
Исследователь робототехники и писатель Дэниел Уилсон называет законы Азимова тщательно продуманными, однако абсолютно бесполезными [12]. Эти весьма приемлемые с точки зрения человеческой морали правила, невозможно сформулировать на машинном языке. Азимов не был программистом, видимо, поэтому он не принял во внимание вопрос о самой возможности перевода этих принципов в машинный код.
Впрочем, сложность морального выбора возникает не только в области программирования машин, но и для самих людей, принимающих решения в повседневной жизни. Если бы люди всегда знали, какие поступки являются морально верными, могли бы четко описать критерии и границы действия тех или иных этических норм, их жизнь стала бы значительно легче, в особенности, если бы им еще удалось договориться о роли традиционных, исторических и культурных различий. Но похоже, что попытки отлить мораль железными буквами обречены на провал. У нас нет универсальной этики, которую мы могли бы четко сформулировать, нет нормативного модуля, которым мы могли бы оснастить роботов, обеспечив их правильное этическое поведение. Однако человек, несмотря на все сложности морального выбора, на протяжении исторического пути все же находил выход. Совершая ошибки, анализируя прошлое, люди пытались их исправить, формулируя общие критерии правильного поведения. В древних культурах золотое правило было положено в основание мировых религий. Просвещение открыло человечеству категорический императив. Люди пришли к идее наделения всех равными правами, сделали вывод об аморальности рабства, дискриминации по половому, национальному, религиозному или иным признакам. Признали уникальность индивидуума, неприкосновенность его личных прав и свобод. Человечество накопило богатый этический опыт, позволяющий ему выживать и реконструировать себя в качестве культурной реальности. Возможно ли передать хотя бы часть этого опыта машине, чтобы предотвратить ситуации, при которых компьютер может совершать аморальные действия?
Идея научить машину принимать решения на основе статистической обработки человеческих поступков дает надежду на создание машин, имитирующих поведение человека, включая и моральный аспект. Сразу следует отметить, что дисциплина, называемая "экспериментальной этикой", определяет, как ведут себя люди в определенных ситуациях морального выбора, однако она не показывает, как они должны себя вести. Поэтому следование модели поведения статистического большинства совершенно не гарантирует правильного, с этической точки зрения, поведения. Более того, может способствовать укреплению имеющихся на данный момент времени общественных пороков и предрассудков.
Попытки отразить этический опыт в регулировании правил создания умных машин выражаются в современном законотворческом процессе. Так, например, немецкая федеральная комиссия по этике для автономного вождения дает рекомендации следующего характера: человеческая жизнь принципиально имеет приоритет над имущественным ущербом, однако количественная оценка людей по личным признакам недопустима [13]. Британский институт стандартов представил новую директиву по разработке морально приемлемых роботов [14]. В её основе заложен принцип: люди, а не роботы, являются моральными субъектами.
Мораль, являясь социальным феноменом, возникает в обществе. Ее можно определить как совокупность предписаний и норм поведения, вырабатываемых в процессе совместной жизни. Коллективный характер морального регулирования еще раз подчеркивает, почему разработка этических норм внедрения разумных систем в социальную жизнь является функцией не отдельных акторов или инициативных групп, а глобальной общественной задачей. Изменения, которые происходят в результате формирования больших данных и ИИ, являются фундаментальными и необратимыми. Они оказывают влияние на личность и общество, на самооценку человека, на социальную структуру, на организацию труда, на формирование политической воли и индивидуального мнения. Масштаб влияния, связанный с внедрением искусственного интеллекта, выходит далеко за чисто экономические рамки. Речь идет не о технологическом прорыве в отдельно взятой нише, даже не о трансформации экономики в целом, а об изменениях, которые коснутся всех аспектов нашего бытия. Большие данные и искусственный интеллект модернизируют общество подобно тому, как когда-то это сделала техническая революция, с той лишь разницей, что масштаб изменений будет значительно больше, а время, в течение которого произойдут изменения, значительно меньше. При столь масштабном воздействии, целью технологического развития должны стать не только оптимизация процессов и достижение экономической эффективности, но и улучшение жизненной ситуации людей, расширение возможностей их действий и сохранение их автономии [15]. При этом основная этическая задача состоит в том, чтобы сделать интеллектуальные компьютерные системы гуманными и ориентированными на ценности человечества.
Цифровые технологии служат определенным целям, то есть они вовлечены в связанную структуру целей и средств. Их ценность имеет амбивалентный характер. Полезны они или вредны, зависит от телеологических предпосылок, которым они подчинены. По мере проникновения умных машин в окружающую жизнь взаимоотношения человека и системы меняются. Машина, становясь сложнее, перенимает на себя все больше функций, ранее выполняемых людьми. Происходит смена парадигмы, от модели ведущего-ведомого, к модели партнерства, в которой машина выполняет роль не просто терпеливого исполнителя монотонных операций, но занимает место компетентного специалиста, предлагающего готовые решения сложных задач.
Для того, чтобы распространение автоматизированных решений не приводило к ограничивающим свободу человека патерналистским эффектам, необходим постоянный контроль и всестороннее тестирование электронных экспертных систем. Снижение рисков должно закладываться уже на этапе разработки и проектирования интеллектуальных машин. Следует обратить внимание на аспекты, связанные с предотвращением дискриминации, манипуляций, рисков безопасности, сохранения конфиденциальности данных. Опираясь на рассуждения, опубликованные в статье «Этика искусственного интеллекта» шведским философом и исследователем ИИ Н.Бостромом совместно со своим американским коллегой Э.Юдковским [16], рассмотрим три фундаментальных принципа, в соответствии с которыми должны разрабатываться новейшие интеллектуальные помощники, использующие технологии машинного обучения. Первые два сопряжены с определением причинно-следственных связей в работе систем, основанных на искусственном интеллекте, третий ориентируется на результаты действий этих систем. Ниже сформулируем эти принципы:
При проектировании ИИ, во-первых, должен быть обеспечен максимально высокий уровень понятности функционирования ИИ и принципиальная предсказуемость действий, управляемых с его помощью машин.
Во-вторых, соблюдена чистота, прозрачность и полнота используемых для обучения ИИ данных, осуществлена профилактика против манипуляции входящими данными и построенными на их основе исходящими результатами.
В-третьих, произведено четкое определение ответственности за совершаемые искусственным интеллектом потенциальные действия.
1. Понятность и предсказуемость
По мере технологического прогресса мир усложняется. Увеличивается количество связей, а вместе с тем и количество возможных альтернатив. В то же время физические и психические возможности человека развиваются слабо, оставаясь практически неизменными. Человеку все труднее обрабатывать данные, исходящие из внешнего мира, и ориентироваться в стремительно меняющемся информационном пространстве. На помощь ему приходят машины, беря часть работы на себя, они высвобождают ограниченный ресурс человеческого внимания. Так, компьютеры становятся необходимым инструментом, позволяющим снизить сложность социального бытия для человека, позволяя ему ориентироваться и адекватно действовать в окружающем мире. Одновременно, сами информационные технологии, опирающиеся на обработку данных с помощью ИИ, представляют собой сложные системы, работа которых все труднее поддается контролю. С одной стороны, человек все больше зависит от умных машин, с другой, подвергается растущим рискам. Чем выше комплексность системы, тем сложнее разобраться в ее работе. Выглядит довольно логичным, что в ответ на эту ситуацию все чаще возникают юридические и этические требования гарантировать понятность моделей машинного обучения [17].
Повышение рисков применения ИИ происходит в том числе из-за возникновения не всегда прозрачных для человека статистически обусловленных факторов работы систем. В связи с этим оценка действий, совершаемых умными машинами, зачастую тоже возможна только статистически и не может быть сделана экспертами на основе анализа и понимания принципов работы алгоритма. Поэтому при проектировании систем на базе машинного обучения следует использовать все возможности создания интуитивно понятного компьютерного дизайна. Архитектура кода должна максимально соответствовать человеческому восприятию, его способностям понимания, быть логичной и максимально доступной для критического анализа экспертов.
В связи с тем, что фактор сложности и понятности вступает в противоречие, при дальнейшем развитии технологий следует ожидать обострение проблемы поиска ошибок в работе систем. Как бы ни были высоки старания сделать код понятным и прозрачным, по мере его усложнения анализ будет занимать все больше временных и расчетных ресурсов. Это неизбежно приведет к тому, что ошибки будет находить труднее, особенно в случае использования ошибочных, неполных или статистически искаженных данных. Поэтому, помимо понятности и предсказуемости, чистота и прозрачность используемых для обучения нейронных сетей данных составляет следующую глобальную этическую проблему для внедрения технологий машинного обучения и искусственного интеллекта.
2. Чистота данных
Обучение ИИ проходит на основе обработки больших объемов данных. В зависимости от того, какие данные будут использованы, будет зависеть и результат обучения. Если в наборе данных присутствует перевес одного типа над другим, это, скорее всего, отразится и на результатах работы обученной нейронной сети. Данную ситуацию иллюстрирует известный пример, когда руководство крупнейшего поставщика услуг на рынке доставки товаров AMAZON, являющегося одновременно одним из мировых лидеров разработки ИИ, решило автоматизировать процесс приема новых сотрудников [18]. Идея состояла в том, чтобы обученная нейронная сеть анализировала анкеты желающих устроиться на работу и принимала решение самостоятельно, выбирая из них наиболее подходящих для компании сотрудников. Для обучения использовалась накопленная база данных уже претендовавших ранее на работу кандидатов. В результате обученный таким образом искусственный интеллект стал неожиданно проявлять сексистские признаки, отдавая предпочтение мужскому полу и дискриминируя женщин. Причина необъективного выбора лежала в исходных данных, на которых обучалась машина. Оказалось, что в течение многих лет отдел кадров компании, при одинаковых условиях, отдавал предпочтение работникам-мужчинам. Это заметил ИИ и принял этот эффект как образец действия. Пример показывает, насколько важно качество изначальных данных, он также наглядно иллюстрирует, что человеческий мир несовершенен. Если не относиться к обучению машин критически, они научатся повторять те же ошибки, которые человечество совершило ранее, что приведет к их дальнейшему укоренению.
В современном мире происходит повсеместный сбор данных, которого еще не видела мировая история. Собираемая информация позволяет производить масштабный мониторинг, открывающий, помимо возможностей решения большого количества социальных проблем, также и значительный потенциал манипулирования данными. Следует отметить, что в западных странах этот мощнейший инструмент находится не под контролем государственных структур, а в руках нескольких корпораций, ведущих агрессивную политику монополизации информационного ресурса. Активно поглощая стартапы, они препятствуют возникновению конкуренции на глобальном рынке интернет-услуг [19]. Распространение влияния поисковых систем, прежде всего квазимонополии Google, вызывает беспокойство многих наблюдателей, которые задаются вопросом, в какой степени системы выполняют роль редактора информационного пространства и как гарантировать, чтобы алгоритм поиска не превратился в цензора интернета.
На государственном уровне демократия подразумевает гарантию средств свободного выражения и обмена мнениями, в то же время мы наблюдаем как ландшафт общественного пространства все больше заполняется пузырями фильтров, превращаясь в картину прогрессирующего отчуждения [20]. Интернет с его идеей глобального обмена переживает все больше попыток со стороны авторитарных режимов ограничить его для своих граждан и повлиять на процессы формирования мнения в других государствах [21]. Все эти эффекты возникают на фоне процессов манипуляции данными.
Таким образом, для развития технологий в соответствии с ценностно ориентированным дизайном, требуется обеспечить прозрачность данных, на которых предполагается проводить обучение нейронных сетей, используемых в ИИ. Информированность, прозрачность, осведомленность и осознанность при использовании обучающих данных есть необходимые элементы для создания доверительного отношения к ИИ [22]. Такую же цель преследует концепция гуманных данных «Data for Humanity», которая была реализована в проекте, стартовавшем в конце 2015 года [23]. Инициатива объединила людей, разделяющих принцип использования данных для всеобщего блага. Правила, прописанные в концепции, предполагают применение технологий обработки больших данных исключительно во имя человеческих ценностей: таких как установление взаимопонимания, помощь нуждающимся, сохранение природы, создание справедливого и свободного от дискриминации мира. Правила запрещают применение технологий, в случае если возникает риск нанесения вреда человечеству. На данный момент к этой инициативе уже присоединились более 1000 специалистов из разных областей науки, исследователей и разработчиков ИИ [24].
Понятность и предсказуемость действия ИИ, ровно как и прозрачность используемых для его обучения данных - два описанных нами принципа, - приобретают еще большее значение при рассмотрении этических проблем для потоковых процессов обработки информации. В то же время из-за возрастания сложности и ускорения процессов такие условия, как прозрачность, дискурсивность и рефлексивность, больше не могут быть реализованы человеческими субъектами во многих областях применения [25]. Это приводит к тому, что значение «машинно-операбельной этики» в режиме реального времени будет возрастать [26]. Отсюда следует, что концепция алгоритмической этики требует дискурса об изменяющейся юридической и этической ответственности всех участников процесса создания регулирования и эксплуатации ИИ. Таким образом, мы подходим к рассмотрению третьего принципа этического развития цифровых технологий - принципу ясного и четкого определения ответственности за действия ИИ.
3. Ответственность
Многие экономисты прогнозируют, что к 2030 году около половины рабочих мест будет заменено умными машинами [27]. Это значит, что решения, которые люди принимают на этих рабочих местах, в будущем будут принадлежать управляемыми искусственным интеллектом роботами. Однако мы не проснемся однажды и не увидим перед собой безупречных роботов-машин, непогрешимых систем распознавания лиц или всемогущих радиологов, безошибочно ставящих диагноз пациентам. Вместо этого на протяжении многих лет мы последовательно будем делегировать человеческие функции компьютеру до тех пор, пока, наконец, не установится баланс между мыслящим человеком и мыслящей машиной. В конечном счете, цель систем ИИ состоит в том, чтобы разумно помочь человеку в достижении его целей и при этом значительно уменьшить однообразную или неприятную работу, но не заменить человека, сделав его лишним.
Внедрение технологий ИИ повлияет на изменение процессов принятия решений и связанных с этим процедур. В связи с распространением автоматизированных решений привычные способы их оценок изменятся и будут интегрированы в новую структуру смысла. Это неотъемлемо отразится на разработке требований к качеству принятия решений, на распределении ответственности за результат, а также на легитимности процесса принятия решений. Чем более сложные модели используются в работе ИИ, чем более значимые решения передаются на уровень машинного управления, тем более качественная экспертиза с привлечением человеческого рассудка должна быть включена в разработку процесса принятия решений. Особо тщательному анализу должны быть подвергнуты процессы принятия решений, связанные со здоровьем и жизнью человека. Так, например, в среде управления транспортными средствами или в медицинской диагностике принятие решений должно быть спроектировано таким образом, чтобы ответственность возлагалась на всех лиц, причастных к разработке автоматизированных интеллектуальных машин, вплоть до специалистов в области разрешительной системы применения и использования ИИ. Таким образом, в разрешительных процессах для самоуправляемых транспортных средств автономия должна расширяться лишь небольшими шагами.
Современные технологии могут вызвать искушение реализовать человеческое нежелание нести ответственность за принимаемые решения, путем ее переноса на искусственный интеллект. Этой опасности можно и нужно противостоять. Вопрос в том, какие вещи лучше передать в компетенцию программ, а какие необходимо оставить в области человеческого контроля. Он касается не только качества принятия решений, но прежде всего легитимности и глубокого всестороннего критического анализа предполагаемых решений. В ключевых моментах, чтобы сделать правильное ответственное решение, человек должен применить силу своего рассудка, проявив свойственную его природе способность к суждению. Умение выстраивать причинно-следственные связи на основе всего накопленного опыта позволит человеку предвидеть опасности применения и неприменения тех или иных технологий. Выбор правильного баланса между риском непрозрачно поставленного диагноза и ущербом, нанесенным от неприменения технологий в области медицинской диагностики, способных спасти жизни людей, остается за человеком.
Открытие цифровых технологий, позволяющих автоматизировать рутинные структуры принятия решений, является прогрессивным достижением мировой культуры и содержит в себе огромный потенциал. Этот шанс нельзя упускать. Наибольшая опасность при этом исходит из общественной дискуссии, в которой одни видят только возможности, а другие только риски. Дебаты, касающиеся оценки рисков внедрения цифровых технологий, необходимо продолжать, но они не должны сводиться к узкому обсуждению пределов технических возможностей или принимать характер алармирования абстрактных угроз. Дискуссии должны проводиться в междисциплинарном масштабе с применением компетенций как специалистов в области ИИ, так и юристов, этиков, социологов, экономистов, представителей из области культуры науки и образования, с обязательным освещением на политическом, общественном и медийном уровнях. Вне всякого сомнения, цифровые технологии имеют множество новых областей применения. Искусственный интеллект может быть использован для решения самых разных, порой неожиданных задач. Однако цифровые технологии не должны быть признаны ответственными за осуществление общественных реформ, которые невозможно было бы осуществить в аналоговом мире. Эта задача по-прежнему остается в компетенции людей, а ИИ выступает лишь как могущественный инструмент, который человек не должен выпускать из своих рук.
Список литературы:
- J.McCarthy, M. L. Minsky, N. Rochester, C. E. Shannon: «A proposal for the Dartmouth Summer Research Project on Artificial Intelligence», 31. August 1955; http://raysolomonoff.com/dartmouth/boxa/dart564props.pdf
- Turing A. Computing machinery and intelligence (англ.) // Mind : журнал. — Oxford: Oxford University Press, 1950. — No. 59. — P. 433—460.
- Интнрнет источник https://ru.wikipedia.org/wiki/Deep_Blue
- Silver D., Huang A., Maddison C. J., Guez A., Sifre L., van den Driessche G., Schrittwieser J., Antonoglou I., Panneershelvam V., Lanctot M., Dieleman S., Grewe D., Nham J., Kalchbrenner N., Sutskever I., Lillicrap T., Leach M., Kavukcuoglu K., Graepel T. & Hassabis D. Mastering the game of Go with deep neural networks and tree search (англ.) // Nature. — 2016. — 28 January (vol. 529, iss. 7587). — P. 484—489. — ISSN 0028-0836. — DOI:10.1038/nature16961.
- Интнрнет источник https://science.sciencemag.org/content/359/6374/418
- Frank Rosenblatt: Strategic approaches to the study of brain models. In: H. v. Foerster (Hg.): Principles of Self-Organization, London 1962, S. 387.
- Anderson, Chris. The End of Theory: The Data Deluge Makes the Scientific Method Obsolete // Wired. — June 2008. URL: http://www.wired.com/science/discoveries/magazine/16–07/pb_theory/.
- Интнрнет источник https://www.ozon.ru/context/detail/id/24323469/
- Интнрнет источник https://en.wikipedia.org/wiki/Artificial_intelligence
- «Autonomy: ability to perform intended tasks based on current state and sensing, without human intervention»: ISO 8373:2012, 2.2; https://www.iso.org/obp/ui/#iso:std:iso:13482:ed-1:v1:en
- I.Kant. Kritik der Urteilskraft. Reclam, Philipp, jun. GmbH. 1986-01-01
- Daniel H. Wilson. Robopocalypse: A Novel (Vintage Contemporaries)
- Ethik-Kommission «Automatisiertes und Vernetztes Fahren», eingesetzt durch den Bundesminister für Verkehr und digitale Infrastruktur, Bericht Juni 2017: https://www.bmvi.de/SharedDocs/DE/Anlage/Presse/084-dobrindt-bericht-der-ethik-kommission.pdf?_blob=publicationFile
- British Standards Document BS 8611: Robots and robotic devices. Guide to the ethical design and application of robots and robotic systems. doi:10.3403/30320089U.
- BMVI. (19. Juni 2017). Ethik-Kommission: Automatisiertes und Vernetztes Fahren. Abgerufen am 19. Juni 2017 von https:// www.bmvi.de/SharedDocs/DE/Anlage/Presse/084-dob- rindt-bericht-der-ethik-kommission.pdf?__blob=publicati- onFile BMW. (4. January 2017). BMW's all-knowing, all-talking, all-dri- ving car – CES 2017 Veröffentlicht am 04.01.2017. Abgeru- fen am 7. Juni 2017 von https://www.youtube.com/watch?- v=5u973NpdKVQ
- Bostrom, N., & Yudkowsky, E. (2014). The Ethics of Artificial Intelligence. In K. Frankish, & W. M. Ramsey, The Cambridge Handbook of Artificial Intelligence (S. 316-334). Cambridge : Cambridge University Press (Online: https://pdfs.semantic- scholar.org/b2a4/66efec8c259ae789f91f413f342e0588792d. pdf?_ga=1.32789051.463302395.149260499820).
- Интернет источник https://www.robertfreund.de/blog/wp-content/uploads/2015/12/2015-sonderausgabe-digital.pdf
- Интернет источник https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G
- Интернет источник https://www.vedomosti.ru/technology/articles/2019/08/22/809400-tehnologicheskie-giganti-antimonopolnih
- Eli Pariser: The Filter Bubble: What the Internet Is Hiding from You. Penguin Press, New York, 2011.
- Интернет источник https://www.theguardian.com/news/series/cambridge-analytica-files
- Luhmann, N. (1979). Trust and power. New York: John Wiley & Sons.
- Initiatoren waren die beiden Professoren Roberto Zicari und Andrej Zwitter von den Universitäten Frankfurt am Main bzw. Groningen.
- Zicari, R., & Zwitter, A. (2015). Data for Humanity: An Open Let- ter. Abgerufen am 20. April 2017 von http://www.bigdata. uni-frankfurt.de/dataforhumanity/
- Altmeppen, K.-D., Bieber, C., Filipović, A., & Heesen, J. (2015). Echtzeit-Öffentlichkeiten. Neue digitale Medienordnungen und neue Verantwortungsdimensionen. In K.-D. Altmeppen, & A. Filipović, Communicatio Socialis, Bd. 48 (4) (S. 382-396).
- Ananny, M., & Crawford, K. (13. December 2016). Seeing without knowing: Limitations of the transparency ideal and its application to algorithmic accountability. New Media & Society. Abgerufen am 19. April 2017 von http://journals.sage- pub.com/doi/abs/10.1177/1461444816676645?journalCode=n- msa
- Kucklick, C. (2016). Soziologische Aspekte von Big Data, Plenarsitzung des Deutschen Ethikrats am 23. März 2016 zum Thema »Big Data«. http://www.ethikrat.org/dateien/pdf/plen- um-23-03-2016-simultanmitschrift.pdf.
- Frey, C. B., & Osborne, M. (17. September 2013). The Future of Employment: How Susceptible Are Jobs To Computerisati- on? Abgerufen am 6. Juni 2017 von http://www.oxfordmar- tin.ox.ac.uk/downloads/academic/The_Future_of_Employ- ment.pdf
дипломов
Оставить комментарий