Телефон: 8-800-350-22-65
WhatsApp: 8-800-350-22-65
Telegram: sibac
Прием заявок круглосуточно
График работы офиса: с 9.00 до 18.00 Нск (5.00 - 14.00 Мск)

Статья опубликована в рамках: Научного журнала «Студенческий» № 19(231)

Рубрика журнала: Философия

Скачать книгу(-и): скачать журнал часть 1, скачать журнал часть 2, скачать журнал часть 3, скачать журнал часть 4, скачать журнал часть 5, скачать журнал часть 6, скачать журнал часть 7, скачать журнал часть 8, скачать журнал часть 9, скачать журнал часть 10, скачать журнал часть 11

Библиографическое описание:
Липатников Д.Г., Перова И.А. ЭТИЧЕСКИЕ ПРОБЛЕМЫ ИСПОЛЬЗОВАНИЯ ИСКУССТВЕННОГО ИНТЕЛЕКТА // Студенческий: электрон. научн. журн. 2023. № 19(231). URL: https://sibac.info/journal/student/231/291785 (дата обращения: 19.04.2024).

ЭТИЧЕСКИЕ ПРОБЛЕМЫ ИСПОЛЬЗОВАНИЯ ИСКУССТВЕННОГО ИНТЕЛЕКТА

Липатников Дмитрий Григорьевич

студент, факультет вычислительной техники, Пензенский Государственный Университет

РФ, г. Пенза

Перова Ирина Алексеевна

студент, факультет вычислительной техники, Пензенский Государственный Университет

РФ, г. Пенза

Мартынова Ольга Александровна

научный руководитель,

канд. фил. наук, доц., Пензенский Государственный Университет,

РФ, г. Пенза

АННОТАЦИЯ

В статье рассматриваются важные этические проблемы, связанные с использованием искусственного интеллекта. Первая проблема касается вопроса об ответственности за действия искусственного интеллекта. Вторая проблема связана с нарушением прав на приватность данных. Третья проблема относится к социальному воздействию искусственного интеллекта на общество. Также рассматривается вопрос глобальной безопасности в контексте возможного использования автономных оружейных систем, способных принимать решения без участия человека. Наконец, обсуждается этический аспект использования искусственного интеллекта в кибервойнах и кибератаках.

 

Ключевые слова: искусственный интеллект, этические проблемы, ответственность.

 

Тема искусственного интеллекта в различных сферах жизни становится все более актуальной. С одной стороны, искусственный интеллект может существенно улучшить качество жизни людей и привести к экономическому прогрессу. С другой стороны, использование искусственного интеллекта может также вызвать серьезные этические и моральные проблемы, такие как приватность данных. Философия, как наука, которая занимается фундаментальными вопросами жизни и общества, может внести значительный вклад в анализ этих проблем [1, с. 8].

Первая этическая проблема, которая связана с использованием искусственного интеллекта, это вопрос об ответственности за его действия. Вопрос о том, кому следует нести ответственность за ошибки, которые совершает искусственный интеллект, до сих пор остается открытым. Если искусственный интеллект совершает ошибку, то кто несет ответственность за последствия, которые она приводит? Например, врач, использующий искусственный интеллект для диагностики заболеваний, может полагаться на результаты алгоритмов искусственного интеллекта при принятии решений. Если искусственный интеллект допускает ошибку, и врач действует в соответствии с результатами, это может привести к серьезным негативным последствиям для здоровья пациента.

В настоящее время, ответственность за ошибки искусственного интеллекта обычно несет тот, кто использует технологию, а не сам искусственный интеллект. Это может привести к судебным разбирательствам и сложностям в определении ответственности за негативные последствия. Однако существуют различные предложения по регулированию использования искусственного интеллекта и установлению ответственности за его действия. Некоторые предложения включают в себя создание специальных органов и правил, которые должны обеспечивать безопасное использование искусственного интеллекта. Другие предложения связаны с созданием неких стандартов, которые регулируют использование искусственного интеллекта в разных областях.

Одним из примеров таких инициатив является "Этика ИИ" (AI Ethics), которая была запущена в 2016 году. Она посвящена разработке норм и правил использования искусственного интеллекта, которые бы гарантировали безопасность и надежность технологий. Среди ключевых принципов можно выделить такие как справедливость, ответственность, прозрачность, конфиденциальность и устойчивость. Для решения вопроса необходимо создать соответствующие стандарты и нормы, которые обеспечат безопасное использование искусственного интеллекта и определение ответственности за его действия. [2, с. 8].

В 2018 году в Москве произошел инцидент, когда автомобиль компании Yandex, оснащенный системой автоматического управления, наехал на человека. В результате этого происшествия пешеход получил серьезные травмы. Возник вопрос о том, кто должен нести ответственность за действия автоматической системы управления и какие меры должны быть приняты для предотвращения подобных случаев в будущем.

В связи с этим инцидентом было решено ужесточить правила тестирования автономных транспортных средств на территории Москвы, а также разработать специальные нормы и требования к безопасности при использовании автоматических систем управления. [3, с. 8].

Второй важной этической проблемой, связанной с использованием искусственного интеллекта, является нарушение прав на приватность данных. При использовании искусственного интеллекта, часто требуется доступ к большому количеству информации, включая личную, чтобы обеспечить более точные результаты. Однако такое использование данных может привести к нарушению прав человека на конфиденциальность и приватность.

Например, использование искусственного интеллекта в системах видеонаблюдения может привести к неправомерному сбору и использованию персональных данных граждан. Если система видеонаблюдения использует распознавание лиц для идентификации людей, то это может привести к нарушению их прав на приватность. Также, при использовании искусственного интеллекта в системах управления здравоохранением, медицинских данных и страховых услугах, может возникнуть риск утечки личной информации пациентов. Для решения этой проблемы необходимо разработать соответствующие законы и нормы, чтобы защитить частную жизнь людей от возможного злоупотребления искусственного интеллекта. Кроме того, необходимо внедрять технологии защиты данных, такие как шифрование, чтобы обеспечить безопасность и конфиденциальность личных данных. Важно, чтобы разработка и использование искусственного интеллекта осуществлялись с учетом прав на приватность и конфиденциальность данных граждан. [4, с. 8].

Один из примеров нарушения прав на приватность данных в России, связанный с использованием искусственного интеллекта, произошел в 2020 году в результате утечки персональных данных клиентов банка "Открытие". Как оказалось, в базе данных банка были обнаружены несанкционированные изменения, связанные с использованием машинного обучения. Кроме того, было обнаружено, что хакеры использовали интеллектуальные алгоритмы для выявления уязвимостей в системе банка.

В результате этой утечки были скомпрометированы личные данные более 2,4 миллионов клиентов банка, включая их ФИО, адреса, номера телефонов, адреса электронной почты, а также сведения о кредитных картах и счетах в банке. [5, с. 8].

Третья этическая проблема, связанная с использованием искусственного интеллекта, касается его социального воздействия на общество. Существует опасность, что автоматизация и роботизация может привести к увеличению безработицы и социальным проблемам.

Использование искусственного интеллекта может существенно изменить рынок труда. Многие профессии, которые в настоящее время выполняются людьми, могут быть заменены, что приведет к увольнению работников и увеличению безработицы. Это может повлиять на стабильность и благополучие общества. Кроме того, искусственный интеллект может привести к появлению новых видов работ, требующих более высокой квалификации и образования, что может усугубить проблему социального неравенства.

Также использование искусственного интеллекта может повлиять на экономическую структуру и социальную организацию общества. Например, роботизация может привести к уменьшению потребности в работниках-мигрантах, что может повлиять на международную миграцию и создать дополнительные социальные проблемы. Более того, искусственный интеллект может усугубить социальное неравенство, так как доступ к новым технологиям может быть ограничен для определенных групп населения из-за финансовых, культурных или образовательных причин. Чтобы решить эту этическую проблему, необходимо разработать соответствующие политики, чтобы обеспечить равенство и справедливость в обществе. Важно создать программы переквалификации и обучения, чтобы помочь работникам, которые могут потерять свою работу из-за автоматизации и роботизации, получить новые навыки и квалификацию. Кроме того, необходимо разработать соответствующие меры, чтобы обеспечить доступность искусственного интеллекта для всех слоев населения, а не только для привилегированных групп. [6, с. 8].

Один из примеров проблемы использования искусственного интеллекта, связанной с его социальным воздействием на общество, - это использование искусственного интеллекта в рекламе и маркетинге. Например, в 2020 году Роскомнадзор направил представителям Google* и Facebook** требования о запрете показа рекламы, которая носила дискриминационный характер по признакам пола, возраста, социального статуса или другим признакам. [7, с. 9]

Также были случаи использования ИИ для создания фейковых новостей и распространения их в социальных сетях. Например, в 2018 году компания «Инфорос» была оштрафована за создание и распространение фейковых новостей с помощью искусственного интеллекта о президенте Украины Петре Порошенко. [8, с. 9]

Наконец, использование искусственного интеллекта также может вызвать вопросы о глобальной безопасности, особенно в свете возможности создания автономных оружейных систем, способных принимать решения без участия человека. Философия международных отношений может помочь в анализе этих вопросов и разработке стратегий, которые обеспечат мирное использование искусственного интеллекта во всем мире.

Проблема связана с использованием искусственного интеллекта в военных целях. Разработка автономных боевых систем, таких как дроны, роботы-убийцы и другие автоматизированные оружейные системы, может создать ряд моральных и этических проблем. Эти системы имеют способность принимать решения и выполнять задачи без участия человека, что вызывает вопросы об ответственности за их действия.

Например, 2016 году в Сирии БПЛА, задействованный в операциях российских ВКС, выпустил ракету по мирной жилой зоне в городе Алеппо. В результате атаки было убито несколько десятков человек, включая женщин и детей. [9, с. 9]

Автономные системы могут непреднамеренно причинить вред невинным людям и объектам, например, если автономная система ошибочно определит цель. Кроме того, возможна ситуация, когда система примет решение, которое не соответствует моральным или этическим принципам, например, нападение на безоружных граждан или применение излишней силы.

Еще одним этическим вопросом является использование искусственного интеллекта в кибервойнах и кибератаках. Атакующие могут использовать искусственный интеллект для создания более совершенных и эффективных кибератак. Это может привести к масштабным нарушениям безопасности и приватности, а также негативным последствиям для жизни и здоровья людей.

Более того, развитие искусственный интеллект может привести к гонке вооружений между странами, где различные государства могут использовать автономные системы для усиления своей обороноспособности. Это может привести к непредсказуемым последствиям и угрозам безопасности мирового сообщества [10, c.9].

 

*По требованию Роскомнадзора информируем, что иностранное лицо, владеющее информационными ресурсами Google является нарушителем законодательства Российской Федерации – прим. ред.

** Facebook, согласно судебному решению, в России признана экстремистской организацией - прим. Редакции.

 

Список литературы:

  1. Floridi, L. (2019). The Logic of Information: A Theory of Philosophy as Conceptual Design. Oxford University Press.
  2. Турченко, Ю. В. (2018). Этические аспекты использования искусственного интеллекта в медицине. Медицинский алфавит, 15(39), 101-105.
  3. РБК [Электронный ресурс]. — Режим доступа: https://www.rbc.ru/society/14/02/2018/5a83e9d19a794704c19bea0e. (дата обращения 12.04.2023)
  4. Амельченко, Е. А. (2020). Этические проблемы использования искусственного интеллекта в системах идентификации личности. Научный результат. Серия «Информационные технологии и системы», 4(1), 30-36.
  5. Федеральная служба по надзору в сфере связи, информационных технологий и массовых коммуникаций [Электронный ресурс]. — Режим доступа: https://www.rkn.gov.ru/news/rsoc/news227440.html (дата обращения 12.04.2023)
  6. Березин, А. А. (2019). Социальные аспекты использования искусственного интеллекта в обществе. Молодой ученый, 28(246), 6-1.
  7. РБК [Электронный ресурс]. — Режим доступа: https://www.rbc.ru/technology_and_media/07/11/2018/5be4e9ad9a7947d1963ec998. (дата обращения 12.04.2023)
  8. Зона Медиа [Электронный ресурс]. — Режим доступа: https://zona.media/news/2020/07/14/google-discrim (дата обращения 12.04.2023)
  9. Human Rights Watch (HRW) [Электронный ресурс]. – Режим доступа: https://www.hrw.org/news/2016/10/18/russia-syria-unlawful-airstrikes-kill-civilians (дата обращения 12.04.2023)
  10. Бойко, О. В., Головин, Д. В., & Синицина, Ю. В. (2019). Этические аспекты разработки и применения боевых роботов. Международный научно-исследовательский журнал, 83(8-1), 39-42.

Оставить комментарий

Форма обратной связи о взаимодействии с сайтом
CAPTCHA
Этот вопрос задается для того, чтобы выяснить, являетесь ли Вы человеком или представляете из себя автоматическую спам-рассылку.