ЭТИКА ИИ

Бесплатный онлайн-курс, разработанный в Хельсинском университете.

В оригинале доступен на английском, финском и шведском, и содержит викторины: https://ethics-of-ai.mooc.fi.

Курс предназначен для всех, кто интересуется этическими аспектами использования ИИ:
  • что подразумевается под этикой ИИ,
  • что можно и чего нельзя делать для развития ИИ этически устойчивым способом,
  • как начать думать об ИИ с этической точки зрения.
Материалы курса лицензированы согласно CC 4.0, что допускает перевод и распространение при указании авторов:

ЭТОТ
КУРС

Расскажет, почему ИИ вызывает опасения по поводу его этически приемлемого использования и развития.
Познакомит с этическими вопросами и концепциями, связанными с современным ИИ.
Объяснит, как сочетать этические концепции и теории с ИИ, выполняя практические упражнения.

АКТУАЛЬНОСТЬ ИИ
РАСТЁТ

Искусственный интеллект уже является частью нашей повседневной жизни. Когда мы размещаем фотографии в социальных сетях, занимаемся поиском в интернете или задаём вопросы чат-ботам, мы взаимодействуем с ИИ.

Органы власти полагаются на ИИ при предоставлении государственных услуг, а правительства ищут решения глобальных проблем, используя знания, полученные с помощью алгоритмов.

Цель этого курса — помочь вам развить собственные навыки этического мышления.

ГЛАВА 1: ВВЕДЕНИЕ

Что такое этика ИИ? Какую роль в ней играют ценности и нормы? Принципы этики ИИ.

1−1
РУКОВОДСТВО
ПО ЭТИКЕ ИИ

С момента зарождения вычислительной техники Аланом Тьюрингом человечество возлагало большие надежды на мощь компьютеров и искусственного интеллекта. Ожидается, что ИИ принесёт значительную пользу обществу — от повышения эффективности и производительности до решения ряда глобальных проблем, таких как изменение климата, бедность, болезни и конфликты.

ИИ уже формирует наше общество и оказывает огромное влияние на повседневную жизнь. Однако одновременно возникают многочисленные правовые и социальные вопросы. Алгоритмы могут усугублять существующие предвзятости, приводить к дискриминации, угрожать безопасности, манипулировать людьми и даже иметь летальные последствия.

По этим причинам необходимо исследовать этические, социальные и правовые аспекты ИИ-систем. В обществе звучит общий запрос к этике ИИ — как развивать и использовать технологии этично? Какими моральными принципами мы должны руководствоваться?

В этом курсе рассматриваются этические вопросы, связанные с современным ИИ, раскрывается их философский фон и даётся интерпретация с точки зрения компьютерных наук и других дисциплин.

Цель курса — развить навыки этического мышления.

Он предлагает руководство по этичному проектированию, внедрению и использованию ИИ. Вы познакомитесь с базовыми концепциями, их теоретической основой и ролью в дискуссиях о современном ИИ.
ИИ — общий термин, описывающий различные техники, позволяющие компьютерам вести себя «разумно». Нет единого определения, но обычно ключевыми признаками ИИ считаются способность выполнять задачи без постоянного контроля и способность обучаться для улучшения результатов.
Машинное обучение — важное направление в ИИ. Это набор алгоритмов, которые самостоятельно учатся принимать решения или структурировать данные. Существуют контролируемое и неконтролируемое обучение (основано на данных), а также обучение с подкреплением (алгоритм учится принимать последовательные решения методом проб и ошибок).

1−2
ЧТО ТАКОЕ
ЭТИКА ИИ?

Прежде чем говорить об этике ИИ, важно понять, что означает сама этика.

Этика отвечает на вопросы: «что хорошо, а что плохо», «что правильно, а что неправильно», «что такое справедливость, благополучие и равенство». Как дисциплина, этика систематизирует, обосновывает и рекомендует концепции правильного и неправильного поведения, используя концептуальный анализ, мысленные эксперименты и аргументацию.

Три основных направления этики:
1. Метаэтика — изучает значение этических понятий, существование этических сущностей (онтология) и возможность этического познания (эпистемология).
2. Нормативная этика — определяет практические способы выбора морально правильного образа действий.
3. Прикладная этика — исследует, что моральный агент (тот, кто может отличить правильное от неправильного и нести ответственность) должен или может делать в конкретной ситуации.
Этика ИИ — это часть прикладной этики, связанная с разработкой и использованием технологий, роботов и других объектов ИИ. Область изучает, как разработчики, производители, власти и операторы должны действовать, чтобы снизить этические риски при проектировании, неправильном применении или злонамеренном использовании ИИ.

Этические вопросы ИИ можно разбить по временным рамкам:
  • неотложные: безопасность, приватность, прозрачность;
  • среднесрочные: воздействие на военную сферу, здравоохранение, правосудие и образование;
  • долгосрочные: фундаментальные цели этичного развития и внедрения ИИ в обществе.
Долгое время этика ИИ рассматривалась как машинная этика или робоэтика — кодексы поведения для искусственных моральных агентов.

Исходная идея — что машины могут принимать этические решения и выступать автономными моральными агентами. Для сравнения: животные не считаются таковыми, им не приписывают осознание правильного и неправильного.
Робоэтика охватывает всё — от этически ответственных автономных автомобилей до разработки кодексов для моральных автономных агентов.

Айзек Азимов предложил знаменитые «три закона робототехники»:
  1. Робот не может причинить человеку вред своим действием или бездействием.
  2. Робот должен подчиняться приказам человека, если они не противоречат первому закону.
  3. Робот должен защищать своё существование, пока эта защита не противоречит первым двум законам.
В наши дни этика ИИ — более широкая область, близкая к инженерной: машину не нужно считать моральным агентом, чтобы анализировать её этические аспекты.

Исследования охватывают внедрение этических принципов в автономные системы, практические задачи (например, решение дилеммы вагонетки), системный анализ понятий справедливости и критическую оценку различных этических рамок.

1−3
ЦЕННОСТИ
И НОРМЫ

Ценности и нормы — это основные элементы этики.

Понятие «ценность» примерно означает степень важности вещи или действия. Ценности помогают устанавливать идеалы и стандарты для оценки вещей, выбора, действий и событий. В этике акцент обычно делается на моральных ценностях, хотя и другие типы — экономические, эстетические, эпистемические (связанные с знанием) — иногда имеют значение. Например, экономические решения могут иметь морально значимые последствия для людей.
Ценности делятся на:
• внешние (инструментальные) — например, деньги имеют ценность как средство достижения чего-то другого, скажем, лучшего медицинского ухода;
• внутренние — это «великие моральные ценности», такие как счастье, свобода, благополучие, которые ценятся сами по себе. Они дают смысл «благу во всех других вещах» (© Аристотель).
Нормы — это ценностно-ориентированные принципы и правила. Они могут быть:
• предписывающими, стимулирующими позитивное поведение («будь справедлив»);
• запретительными, препятствующими негативному поведению («не дискриминируй»).

Виды норм:
• статистические — наблюдения частотного поведения (многие айтишники носят чёрные футболки);
• социальные — принятые в группе представления о правильном поведении;
• моральные — обязательные нормы с силой, превосходящей социальные или статистические ожидания («не использовать ИИ для манипуляций»);
• правовые — правила, установленные законом, которые не всегда совпадают с моралью.
Нормативные утверждения не описывают как обстоят дела в мире. Вместо этого они предписывают, каким мир должен быть. Иными словами, это оценки в терминах «надо», в отличие от утверждений «есть».

Например, предложение «Эта система машинного обучения представляет собой «чёрный ящик» — описательное, а «Системы машинного обучения должны быть прозрачными» — нормативное.

Важно отметить, что факты не диктуют нам нормы. Как утверждал шотландский философ Дэвид Юм, не следует делать нормативные утверждения о том, что должно быть, опираясь лишь на описательные утверждения о том, как есть. Это не значит, что факты не влияют на наши моральные рассуждения, но путь от «есть» к «надо» невозможен без добавления чисто нормативного утверждения о ценности.

Этот принцип известен как «гильотина Юма». Он гласит, что моральные установки зависят от этических соображений и предпочтений, а не от одних лишь фактов — нельзя вывести «надо» из «есть».

Важно отметить, что гильотина Юма не отрицает важность фактов. Они важны, но сами по себе не решают этические проблемы. Для этого требуется подлинно этическое обсуждение.

1−4
ОСНОВЫ
ЭТИКИ ИИ

Традиционно технологическое развитие фокусировалось на функциональности, удобстве, эффективности и надежности. Но ИИ требует более широкого обсуждения социальной приемлемости, затрагивая моральные и политические вопросы, влияя на общество и окружающую среду с этической точки зрения.

Понятия, связанные с этической релевантностью, могут меняться с появлением новых технологий (например, концепция приватности изменилась с появлением соцсетей). Пользователи часто применяют технологии не по прямому назначению, что меняет этическую ситуацию и требует постоянного переосмысления.

Этические рамки представляют собой попытку достичь согласия вокруг ценностей и норм, приемлемых для сообщества — людей, граждан, правительств, бизнеса либо других заинтересованных сторон.
Несколько организаций разрабатывают этические рамки ИИ. Несмотря на различия во взглядах, общий консенсус выделяет пять основных принципов:
  • ненанесение вреда,
  • ответственность,
  • прозрачность и объяснимость,
  • справедливость,
  • уважение прав человека (приватность и безопасность).
Основные вопросы, на которые отвечают эти принципы:
  • Должен ли ИИ приносить благо и не причинять вред?
  • Кто ответит за вред, причинённый ИИ?
  • Нужно ли понимать, что и почему делает ИИ?
  • Должен ли ИИ быть справедливым и недискриминационным?
  • Должен ли ИИ поддерживать и уважать права человека?
Далее курс подробно изучает эти принципы: их философские основы, практическое применение, возникающие проблемы и открытые вопросы.

Нужно отметить, что этика ИИ — первая тема при обсуждении социальных последствий, но существуют и другие перспективы, например, алгоритмическая культура, гендерные и медиаисследования. Когнитивные и психологические аспекты взаимодействия человека и машины также влияют на выбор соответствующих этических рамок.

Таким образом, этика ИИ гораздо шире, чем просто этика данных или алгоритмов.

ГЛАВА 2: БЕЗВРЕДНОСТЬ

Что означают для ИИ принципы благодеяния и ненасилия, и как они соотносятся с концепцией «общего блага»?

2−1
ЧТО ДЕЛАТЬ?

Принцип благодеяния гласит: «делай добро», тогда как принцип ненанесения вреда — «не причиняй вред». Несмотря на внешнее сходство, это разные принципы. Благодеяние призывает создавать ИИ, приносящий пользу, а ненанесение вреда связано с предотвращением негативных последствий и рисков, связанных с ИИ.

Чаще всего этика ИИ фокусируется на втором принципе — обсуждаются меры по минимизации рисков, таких как дискриминация, нарушение приватности, физический и социальный вред. В таких дискуссиях часто рассматриваются намеренное злоупотребление, хакерские атаки, технические меры или стратегии управления рисками.
«ИИ неизбежно вовлечён в этические и политические аспекты профессий и практик, в которых он применяется. Этика ИИ — это своего рода микрокосм широкой политической и этической проблематики общества»
© Брент Миттельштадт
Критики указывают, что акцент на ненанесении вреда сводит этику к решению технических задач техническими средствами. При этом более широкий этический и социальный контекст, в котором функционируют ИИ-системы, упускается. Многие важные вопросы управления и общественных последствий остаются без внимания.

Технологический исследователь Евгений Морозов называет это «техрешенчеством» — убеждением, что проблемы, вызванные технологиями, всегда можно решить с помощью технологий.
В результате глубокие сложные этические вопросы оказываются упрощёнными и без ответа. Один из таких вопросов — понятие общего блага. Что именно мы понимаем под этим?

2−2
ОБЩЕЕ БЛАГО —
ОЦЕНКА ПОСЛЕДСТВИЙ

Представьте, что вы директор по цифровым технологиям городской администрации. Вас просят рассмотреть переход городской системы здравоохранения от реактивной модели (лечение после болезни) к профилактической модели (предотвращение заболеваний).

В полученном вами отчёте рассказывается о современных системах машинного обучения, которые умеют прогнозировать риски здоровья, анализируя множество медицинских данных. Это позволило бы выявлять группы повышенного риска и приглашать их заранее на приём к врачу.
Преимущества
  • Профилактика заболеваний обладает огромным потенциалом для улучшения здоровья и повышения качества жизни горожан;
  • возможность лучше планировать базовые медицинские услуги;
  • снижение социальных и медицинских расходов (предполагается, что сбережения пойдут на общее благо).
Потенциальные проблемы
  • Где грань между допустимой профилактикой и недопустимым вторжением в частную жизнь?
  • Есть ли у города право использовать личные медицинские данные пациентов для отнесения их к группам риска?
  • Как даётся согласие на это, что делать с отказами или с теми, кто неспособен их дать?
  • Если город располагает информацией о потенциальном риске для здоровья и не предпринимает никаких действий на основании этих данных, виновен ли он в халатности?
  • Равноправно ли отношение к гражданам в физическом и цифровом мирах?
Если человек теряет сознание в реальной жизни, мы вызываем скорую помощь, не имея на это явного разрешения. В цифровом мире соображения конфиденциальности могут помешать нам связаться с гражданами.

Как директор по цифровым технологиям, стали бы вы продвигать использование превентивных методов? Если ваш ответ примерно такой: «Да, город должен искать этически и юридически приемлемый способ применения этих методов, они дают гораздо больше преимуществ по сравнению с возможными рисками», вы, вероятно, использовали форму морального рассуждения, называемую «утилитаризмом».
Утилитаризм — это семейство этических теорий, которые оценивают «благо» как действия, максимизирующие благополучие всех затронутых лиц. Утилитаризм утверждает, что последствия любого действия являются единственным критерием правильности.
По мнению утилитаристов, морально правильные действия — это действия, которые обеспечивают максимальный баланс пользы и вреда для всех участников.

Утилитаризм в равной степени учитывает интересы всех людей. Однако его сторонники расходятся во мнениях по многим конкретным вопросам, например, действия следует выбирать на основе их вероятных результатов или согласно предопределённым правилам, максимизирующим полезность.

Джереми Бентам, отец утилитаризма, характеризовал выгоду как «свойство, которое имеет тенденцию приносить пользу, преимущество, удовольствие, благо, счастье или предотвращать возникновение беды, боли, зла или несчастья для стороны, чьи интересы учитываются».

Утилитаризм предоставляет простой алгоритм определения моральной правильности поступка:
  1. Определение доступных действий.
  2. Оценка возможных выгод и вреда для каждого действия.
  3. Выбор наиболее полезного действия с учётом затрат.
Утилитаризм предлагает множество интересных идей и концепций, например, принцип «убывающей предельной полезности», гласящий, что она уменьшается по мере увеличения предложения (и наоборот).

Примеры:
  • занявшись спортом, начальная польза значительна, но каждая последующая тренировка приносит всё меньший эффект, а предельное увеличение интенсивности может привести к перетренированности;
  • съев конфету, вы получаете удовольствие, но слишком большое количество приводит к набору веса и увеличивает риск всевозможных заболеваний.
Данный подход не является идеальным: он требует оценки выгод и вреда, возникающих в результате наших действий, и сравнения их с альтернативными последствиями, что зачастую сложно, а порой и вовсе невозможно.
В этике ИИ вред и риски рассматриваются как возникающие в результате проектирования, ненадлежащего применения или преднамеренного злоупотребления технологиями. Типичные примеры: дискриминация, нарушение конфиденциальности, проблемы безопасности, кибервойна или злонамеренный взлом.
Риск — вероятность причинения определённого ущерба.
На практике сложно сравнивать риски и выгоды по следующим причинам.
На риски и выгоды влияют ценностные обязательства, предпочтения, личные и культурные факторы.
Вред и польза не статичны, сложно предсказуемы и зависимы от обстоятельств.

Например, более быстрый автомобиль принесёт больше пользы, если он используется на гонках, но если он будет перевозить школьников, то безопасность должна быть приоритетом.
Реальные ситуации обычно сложны, поэтому трудно заранее предвидеть или сравнить все риски и выгоды.

Например, автономная военная робототехника. С одной стороны, роботы снижают потери среди гражданского населения и военных, с другой же, их применение способно облегчить принятие решения об объявлении войны.
Утилитаризм не учитывает другие моральные аспекты.

Например, профилактическая система здравоохранения может быть полезна для многих, но она всё равно оставляет вопросы о значении основных прав человека (неприкосновенность частной жизни, право не знать о возможных проблемах со здоровьем, равный доступ к преимуществам системы).
Одна из ключевых сложностей утилитаризма — вопрос о полезности: что это такое на самом деле?

Технически это всего лишь числовая величина, описывающая некое базовое «благо», которое мы хотим максимизировать. Например, удовольствие или благополучие — субъективный опыт, который сложно преобразовать в сопоставимое число.
Философ Роберт Ноэцик придумал мысленный эксперимент с существом (Монстром полезности), получающим гораздо больше удовольствия от ресурсов, чем все остальные. Если максимизировать общую полезность, всё должно достаться Монстру, не оставляя ничего другим.

Делает ли это утилитаризм неприменимым? Может ли утилитарист показать, что эта загадка на самом деле не является проблемой?

2−3
ОБЩЕЕ БЛАГО
И БЛАГОПОЛУЧИЕ

Несмотря на проблемы, описанные ранее, принципы утилитаризма помогают учитывать как немедленные, так и отложенные последствия наших действий. Важно помнить, что в реальной жизни понятие «общее благо» требует учёта разных точек зрения.
Часто «общее благо» отождествляют с «благополучием». Но что такое благополучие?

Истоки исследований лежат в Древней Греции, где философы, такие как Аристотель, изучали, как достичь «хорошей жизни».

Сегодня этим занимаются психология, экономика и социальные науки, рассматривая благополучие как биологические, личные, социальные, институциональные, культурные и глобальные аспекты жизни. Эти измерения охватывают физическое и психическое здоровье, социальную удовлетворённость, осознание личных достижений и самореализацию.
Исследования благополучия можно разделить три типа:
  1. Субъективные теории — акцент на чувства людей в повседневности и их оценке жизни. Здесь благополучие выражается в высокой удовлетворённости жизнью, приятных эмоциях и хорошем настроении.
  2. Эвдемонические теории — благополучие связано с достижением позитивных целей и не сводится к простому удовольствию. Оно включает автономию, личностный рост, позитивные отношения с другими, самоопределение и осознание смысла жизни.
  3. Социальные теории — благополучие рассматривается через социальные связи: интеграцию, вклад в общество, сплочённость и социальное принятие.
Большинство современных подходов объединяют эти теории, рассматривая благополучие как комплексный психологический, социальный и физический феномен.

Более того, исследователи постоянно разрабатывают новые подходы к изучению благополучия. Современные методы включают в себя более продвинутый анализ демографических и социально-экономических данных, текстовый майнинг из соцсетей, анализ цифровых следов и даже черт лица.
Общее благо требует, чтобы все имели доступ к преимуществам ИИ, что подчёркивает необходимость равного распределения выгод и учёта культурного и индивидуального разнообразия.

Общее благо — это многогранное понятие. Необходимо учитывать социальные и моральные нормы конкретных сообществ, где внедряется ИИ. Это единственный способ раскрыть его потенциал для повышения благополучия и социального обеспечения всех.

ГЛАВА 3: ОТВЕТСТВЕННОСТЬ

Качество и характер ответственности различаются в зависимости от роли участника. Даже если кто-то выбирает действие, степень его реальной ответственности зависит от специфики его положения, особенно в сложных технологических системах.
Чем больше функций делегируется алгоритмам, тем сильнее меняются структуры принятия решений: человек и машина становятся «когнитивными гибридами» и совместно обрабатывают информацию, делая процесс распределённым, часто коллективным, а не индивидуальным.
Часто полагают, что достаточно оставить «человека в цикле»: человек контролирует или одобряет критические решения. Но в сложных автоматизированных системах выделить этот человеческий компонент становится трудно — решение распределяется между алгоритмом и группой людей.
Кто должен нести ответственность?

3−1
АЛГОРИТМЫ
И ОТВЕТСТВЕННОСТЬ

В Амстердаме стоянка на 150 000 парковочных мест контролируется частично с помощью автоматизированной системы:
  • камеры сканируют и распознают номера автомобилей;
  • проверяется наличие разрешения на парковку;
  • выявленные нарушения проверяются инспектором, он же принимает окончательное решение, выписать ли штраф.
Такие алгоритмы помогают повысить эффективность и точность, но могут допускать систематические ошибки, быть предвзятыми и причинить серьёзный вред. Помните: алгоритмы — лишь причина решений, они сами не несут моральной ответственности.

Итак, ответственность лежит на человеке, инспекторе. Но если его заменит ИИ и ошибётся, кто ответит?
Автоматизированные системы обычно работают в рамках чётко определённого набора параметров и весьма ограничены в наборе выполняемых задач. Их решения и действия основаны на предопределённых эвристиках или правилах.

Ответственность за принятые решения может быть возложена на автора этих правил.
Автономные системы обучаются и адаптируются к динамическим средам, развиваясь по мере их изменения. При этом данные для обучения могут выходить за рамки объёма, который учитывался при развёртывании системы.

3−2
ЧТО ТАКОЕ
ОТВЕТСТВЕННОСТЬ?

Ответственность — это состояние, при котором субъект отвечает за систему, её поведение и потенциальные последствия.

Ответственность бывает двух видов:
• правовая (юридическая) — когда субъект может быть наказан законом за конкретное событие;
• моральная (этическая) — когда субъект может быть обвинён или осуждён за поступок на моральной основе.

Правовая и моральная ответственность не всегда совпадают — можно быть юридически ответственным, но не морально, и наоборот.

В этике ИИ основное внимание уделяется моральной ответственности, которое рассматривается с трёх сторон:
1. Определение ответственных лиц или групп — кто отвечает за влияние алгоритмов или ИИ в социотехнической системе?
2. Ответственность как характеристика общества, которое создаёт, производит и использует ИИ.
3. Ответственность как характеристика самой ИИ-системы.

3−3
КТО НЕСЁТ ОТВЕТСТВЕННОСТЬ
И ЗА ЧТО?

В этике ответственность тесно связана с понятием «моральный агент». Это субъект, способный действовать с учётом понятий правильного и неправильного. Важно, что только моральные агенты могут нести моральную ответственность за свои действия.
Действия и бездействия
Моральный агент несёт ответственность не только за свои действия, но иногда также и за бездействия.

Например, если я убиваю кого-то — отвечаю за это действие. Если я просто позволяю кому-то умереть, не помогая — я отвечаю за бездействие, даже если не совершал активных действий.

Хотя они не равны с моральной точки зрения — совершить действие хуже, чем не препятствовать чему-то — это не делает бездействие морально правильным. Но мы несём ответственность не за всё, чего не сделали, а лишь за те вещи, которые мы сознательно выбрали сделать или не делать.
Автономия
Моральная ответственность требует:
  1. Моральной автономии — способности подчинять себя моральному кодексу самостоятельно.
  2. Умения оценивать последствия своих действий.

Автономия означает:
  • способность управлять собой без манипуляций извне и действовать без внешних или внутренних ограничений;
  • подлинность желаний, ценностей, эмоций, побуждающих к действию;
  • достаточные когнитивные навыки для оценки, предсказания и сравнения последствий своих действий, а также для оценки мотивов с использованием этически значимых критериев.
Иммануил Кант, один из выдающихся европейских философов-моралистов, утверждал, что практический разум — наша способность использовать доводы для выбора собственных действий — предполагает свободу. Действия базируются на собственной воле подчиниться моральному закону. В этом и заключена высшая моральная ценность.

Согласно Канту, мы обязаны уважать себя за нашу автономию и действовать, исходя из фундаментального уважения к другим людям в силу их автономии.

Таким образом, автономия служит как моделью практического разума для определения моральных обязательств, так и основанием для уважения к другим.

3−4
РАСПРЕДЕЛЕНИЕ
ОТВЕТСТВЕННОСТИ

В контексте ИИ ответственность обычно понимается как юридическое и этическое обязательство конкретных лиц или организаций принимать решения, контролировать использование ИИ и делать результаты работы прозрачными. Она предполагает чёткое разделение на субъекта и контролёра.

Однако на практике очень сложно установить точные критерии этого разделения: кто именно несёт ответственность и за что. Такие вопросы обсуждаются на международном уровне (например, в ЕС и G7), но остаются открытыми.

Почему это так сложно?
Качество и характер ответственности различаются в зависимости от роли участника. Даже если кто-то выбирает действие, степень его реальной ответственности зависит от специфики его положения, особенно в сложных технологических системах.
Чем больше функций делегируется алгоритмам, тем сильнее меняются структуры принятия решений: человек и машина становятся «когнитивными гибридами» и совместно обрабатывают информацию, делая процесс распределённым, часто коллективным, а не индивидуальным.
Часто полагают, что достаточно оставить «человека в цикле»: человек контролирует или одобряет критические решения. Но в сложных автоматизированных системах выделить этот человеческий компонент становится трудно — решение распределяется между алгоритмом и группой людей.
Технологии могут влиять на людей и управлять их поведением, иногда даже принуждать (как, например, звуковой сигнал, заставляющий пристегнуть ремень). Современные алгоритмы часто могут незаметно ограничивать или подталкивать пользователя к выбору.

Для этически корректного применения такие технологии должны уважать свободу воли и осознанность выбора, но это требует от пользователя как минимум понимания принципов работы системы. Не всегда ясно, что именно должен знать пользователь для такой свободы — достаточно ли прозрачности, объяснимости или возможности проверки? Где граница, когда пользователь способен сделать самостоятельный осознанный выбор?

ГЛАВА 4: ПРОЗРАЧНОСТЬ

Нужно ли нам знать, как работает ИИ?

Прозрачность в системах ИИ необходима для доверия, справедливости и этической ответственности. Если система, например, ошибочно определяет невиновных людей как опасных, как в истории с распознаванием лиц в аэропорту, крайне важно иметь возможность понять — и объяснить! — почему произошла ошибка и как принято то или иное решение.

4−1
ПРОЗРАЧНОСТЬ
В ИИ

Прозрачность означает возможность получить информацию о принципах работы ИИ. Это не обязательно этическая ценность сама по себе, а скорее идеал, который позволяет решать ряд этических задач.

Технически прозрачность может проявляться по-разному и помогает:
  • обосновывать конкретные решения (например, разобраться, почему принято решение о кредите, о приёме на работу и т. д.);
  • реализовывать право человека знать, как его данные используются и какие выводы сделаны о нём системой;
  • выполнять моральный долг, предвидеть возможные последствия внедрения технологии — нельзя оправдываться неведением при запуске потенциально опасной системы.

Почему это важно?
Прозрачность позволяет оспаривать решения, о которых люди имеют право знать.
Без прозрачности невозможно честно и открыто объяснять логику решений — это критично для публичного доверия и предотвращения ошибок.
Чёткое понимание устройства и критериев работы ИИ помогает создавать более справедливые и ответственные системы, выявлять и устранять потенциальную дискриминацию и ошибки.
Проблемы прозрачности:
1. Чрезмерная открытость может раскрыть коммерческие секреты и нарушить приватность, а также сделать систему уязвимой для злоупотреблений.
2. В сложных системах (например, современных нейросетях) интерпретируемость и прозрачность могут быть трудно достижимы.
3. Не всегда очевидно, какой уровень понимания и объяснения достаточен для пользователя или аудитора.
Вывод: прозрачность — ключевой принцип этики ИИ, без которого невозможны ни регулирование, ни защита прав, ни доверие, ни этическая ответственность всех участников технологической цепочки.

4−2
ЧТО ТАКОЕ
ПРОЗРАЧНОСТЬ

Прозрачность в ИИ можно понимать по-разному. Существуют близкие понятия, которые иногда используют как синонимы: объяснимость, интерпретируемость, понимаемость и термин «чёрный ящик».

В общем смысле прозрачность — это свойство системы, отражающее, насколько мы можем теоретически понять её внутреннюю работу. Она также означает предоставление пользователям объяснений о моделях и решениях алгоритмов в явной форме. То есть прозрачность связана с тем, насколько общество и пользователи понимают, как функционирует ИИ. Более широко: это социально-технический и нормативный идеал «открытости».

Множество вопросов связано с тем, что именно считать прозрачностью и какой уровень достаточен для разных заинтересованных сторон. Значение этого термина меняется в зависимости от контекста: например, для юридического анализа несправедливых предубеждений или для технического обсуждения свойств машинного обучения.

Прозрачность относится к пониманию внутренней работы модели. Её подразделяют на:
  • симулируемость — понимание основных принципов работы модели целиком;
  • декомпозируемость — понимание работы отдельных компонент;
  • алгоритмическую прозрачность — видимость самих алгоритмов.
Почему многие системы — «чёрные ящики»?

Сложность. Современные нейросети кодируют своё поведение миллионами числовых параметров, которые учатся на тренировке. Из-за сложных взаимодействий между параметрами практически невозможно понять, как сеть принимает решение, даже если параметры известны.

Трудности объяснимости. Создание понятных пользователю объяснений требует дополнительной разработки. Это непросто, нужно сделать объяснения тщательно продуманными и легко воспринимаемыми.

Риски. Слишком открытые системы могут стать уязвимыми — их проще «обмануть», например, заставить принять неправильное решение.

Поэтому некоторые модели сознательно делают менее открытыми.
Поскольку многие современные глубокие модели по определению — «чёрные ящики», учёные предлагают искать оптимальный компромисс — «достаточный уровень прозрачности».

Например, если алгоритм отказал в социальном пособии, он должен объяснить причину отказа и что можно сделать, чтобы изменить решение.

Однако, если система ошибается, требуется более глубокий разбор — анализ факторов, вызвавших ошибку, который невозможен только манипуляциями входных и выходных данных.
Перевод алгоритмических концепций на доступный язык — серьёзная задача. Публикация исходного кода не всегда помогает, поскольку большинство людей не могут его прочитать.

Современные исследователи создают визуализации, интерактивные интерфейсы, вербальные объяснения и мета-описания моделей, чтобы сделать ИИ более понятным.

Восприятие объяснений зависит от культурных и языковых особенностей. Также важен уровень компьютерной грамотности пользователя.

Обучение алгоритмической грамотности — важный путь к повышению прозрачности для широких слоёв населения.
Как повысить прозрачность моделей?

Существует пять основных подходов:
  1. Использовать более простые, но менее точные модели.
  2. Комбинировать простые и сложные модели: сложная для вычислений, простая для объяснений.
  3. Изменять входные данные, чтобы отслеживать связи между входом и выходом.
  4. Проектировать модели с учётом психологических особенностей восприятия пользователя — визуализировать промежуточные элементы.
  5. Следить за новыми научными разработками в области объяснимого ИИ.

4−3
ПРОЗРАЧНОСТЬ
И РИСКИ

Прозрачность часто воспринимается как современный этико-социально-правовой идеал — норма, требующая открытого и ответственного использования технологий в обществе. Это отражает идею «открытости» в разных сферах: открытое правительство, открытые данные, открытый код, открытая наука.

Такая открытость помогает справедливо распределять пользу от научно-технических достижений, делая выгоды ИИ доступными для всех.
Однако идеал полной открытости может обернуться и негативными последствиями. Например, прозрачность социальных сетей породила случаи злоупотреблений и вызовы демократии.

Излишняя прозрачность создаёт риски безопасности:
  • может привести к утечке конфиденциальных данных,
  • снижает устойчивость к атакам,
  • упрощает взлом и способствует краже.
Таким образом, необходим рост прозрачности ИИ для решения этических вопросов, но вместе с тем нужны механизмы защиты от злоупотреблений.

Полная открытость алгоритмов без осторожности может навредить развитию ИИ и подорвать доверие. Необходимо найти баланс между требованиями безопасности и прозрачности, чтобы максимально эффективно и этично использовать ИИ.

ГЛАВА 5: ПРАВА ЧЕЛОВЕКА

Что такое права человека и как они соотносятся с действующими этическими нормами и принципами ИИ?

5–1
ВВЕДЕНИЕ

Во время пандемии COVID-19 правительства разных стран искали эффективные стратегии выхода из локдауна. Для контроля ситуации они стали использовать технологии мониторинга, которые позволяли отслеживать контакты и передвижение граждан, но одновременно поднимали серьёзные вопросы о конфиденциальности и безопасности. Многие критики видели в них шаг к алгоритмическому надзору за населением.
Например, в Лондоне власти совместно с учёными запустили проект Odysseus — систему анализа активности города. С помощью алгоритмов машинного обучения, статистических моделей и обработки изображений они собирали данные о движении транспорта, пешеходов и велосипедистов. Эти данные помогали принимать решения о безопасном открытии улиц и планировании здравоохранения.

Для системы использовались анонимизированные источники: агрегированные данные мобильных телефонов, транзакции банковских карт, а также показания сенсоров и уличных камер.
Odysseus демонстрирует, как искусственный интеллект можно применять во благо и в защиту прав человека, например — права на безопасность и здоровую среду.

Одновременно проект должен учитывать и другие права, такие как право на частную жизнь. В Лондоне это учли: система специально спроектирована так, чтобы ни одна личность не могла быть идентифицирована.
Хотя конфиденциальность и безопасность — самые обсуждаемые темы, они не единственные.

Необходимо понимать, как ИИ влияет на весь спектр фундаментальных прав и свобод:
  • на образование и труд,
  • на справедливое судебное разбирательство,
  • на честные выборы,
  • на свободу слова,
  • на свободу собраний,
  • и на права уязвимых групп, например, детей.

5−2
ЧТО ТАКОЕ
ПРАВА ЧЕЛОВЕКА?

Права человека — это основа современных этических принципов и руководств по ИИ. Они являются универсальными и принадлежат каждому просто потому, что он человек. Не важно, кто вы и где живёте — права человека справедливы для всех.

Это нормы, защищающие людей от политических, юридических и социальных нарушений. Они включают:
1. Гражданские и политические права — право на жизнь, свободу, защиту собственности, свободу слова, стремление к счастью и равенство перед законом.
2. Социальные, культурные и экономические права — участие в науке и культуре, право на труд и образование.
Главная роль прав человека — дать людям возможность самим формулировать и преследовать своё представление о достойной жизни, а не просто выживать.
Права могут рассматриваться как:
  • общепринятые нормы человеческой морали,
  • обоснованные моральные нормы, подкрепленные вескими доводами,
  • юридические права на национальном уровне (например, гражданские или конституционные),
  • международное юридическое право.
Всеобщая декларация прав человека — документ, принятый ООН в 1948 году как общий стандарт для всех народов и стран.
Концептуально права человека основаны на свободе воли и автономии, предусматривающей:
1. Приоритет прав человека
Права человека должны иметь преимущество, если они конфликтуют с другими интересами, например экономическими или национальной стабильностью.

В контексте ИИ это значит:
  • не использовать технологии, явно нарушающие права человека.
  • не допускать ИИ, который ограничивает или подвергает риску права.
2. Контекстуальность прав
Некоторые права важнее других в конкретных ситуациях. Например, право на жизнь обычно превалирует над правом на приватность.
В последние годы внимание сосредоточено на аспектах конфиденциальности и безопасности, что вызвано применением больших данных, технологий наблюдения и биометрии. Также обсуждается равенство и инклюзивность.

5−3
ПРИМЕРЫ
ПРАВ ЧЕЛОВЕКА

Конфиденциальность
Опасения по поводу конфиденциальности связаны с цифровыми записями, которые могут раскрывать чувствительные данные (возраст, пол, ориентация, политические взгляды и т. п.). Биометрические данные тоже вызывают тревогу, поскольку могут раскрыть информацию о физическом и психическом здоровье.

Главная опасность — не столько сами данные, сколько возможности их использования для манипуляций, вреда или дискриминации.

Этика связывает конфиденциальность с личной автономией и целостностью. По Джону Локку, право контролировать свою личную жизнь является фундаментальным для автономии нравственного индивида.
Многие учёные и активисты считают, что люди должны полностью контролировать свои данные, чтобы не допускать их использование во вред.
Однако возникает вопрос: что такое «свои данные»? Это необработанная информация или собранная и уже проанализированная? Можно ли к ним отнести выводы, основанные на «ваших» данных?
Вахтер и Миттельштадт (2019) считают важным право контролировать «разумные выводы», которые влияют на принятие решений и могут нарушать приватность или наносить ущерб.
Общий регламент по защите данных (GDPR)
GDPR — это юридическая база обеспечения прав на конфиденциальность в ЕС. Любая информация, позволяющая идентифицировать человека, считается персональными данными. Для обработки данных требуется явное, информированное согласие.
Права по регламенту включают:
  • право быть информированным о том, как используются данные;
  • право доступа к своим данным;
  • право на исправление и удаление данных («право быть забытым»);
  • право ограничить обработку данных.
Обработка данных должна соответствовать принципам законности, справедливости, ограничению цели использования, минимизации объёма, точности, безопасности и подотчётности.
Методы защиты конфиденциальности:
  • анонимизация — удаление идентификаторов из данных (например, в адресе оставляют только название города),
  • псевдонимизация — замена идентификаторов на искусственные при сохранении статистической точности,
  • синтетические данные — создание искусственных наборов на основе реальных статистических паттернов.
Однако существуют и методы деанонимизации, позволяющие вернуть идентичность данным, что представляет риск безопасности.
Безопасность
Безопасность — это право быть защищённым от физических, социальных и эмоциональных угроз, включая аварии и злонамеренные атаки.

Рассматриваются следующие концепции:
  1. ИИ как экзистенциальная угроза (суперинтеллект), что подвергается сомнению как философами, так и технологами.
  2. Практическая безопасность ИИ связана с проектированием надёжных и предсказуемых систем, устойчивых к необычным условиям (например, системы предотвращения съезда с дорожной полосы).
Право на безопасность обязывает производителей технологий учитывать подобные сценарии: тот факт, что окружающая среда не была идеальной, не оправдывает сбои в работе системы. Исследователи машинного обучения называют эту характеристику надёжностью — способностью системы предсказуемо работать в новых и непредсказуемых обстоятельствах.
Этически и юридически значимый вопрос заключается в следующем: «Каковы приемлемые пределы надёжности?»

Вполне возможно, существует набор настолько невероятных обстоятельств, что мы сможем признать: «никто не мог реально предвидеть этого». Однако где находится этот предел — сложная проблема, и она определённо касается не только искусственного интеллекта, но и технологий в целом.

Тем не менее, прогрессивный энтузиазм, связанный с видением будущего ИИ, поднял вопросы о пределах безопасности и снижении неопределенности окружающей среды совершенно новым способом. Примером этого может служить дискуссия вокруг автономных транспортных средств.
Основной проблемой для автономных автомобилей является сложная и непредсказуемая городская среда. Хотя автомобили с искусственным интеллектом постоянно совершенствуются, даже небольшая группа объектов, независимо выполняющая собственные задачи в общем пространстве, создаёт сложно предсказуемую совокупность.

Когда технические решения, применяемые в автомобилях, слишком далеки от совершенства, возможный способ решения проблемы — ограничение неопределенности окружающей среды.
Эрик А. Тауб предложил решение: оградить тротуары и установить синхронизированные со светофорами шлагбаумы на пешеходных переходах, что сделает дорожную среду более понятной для беспилотных автомобилей и, следовательно, более безопасной.

Однако эта безопасность имеет очевидную цену: ограничение свободы пешеходов и перераспределение ответственности. Значит, нам следует рассмотреть пересекающиеся границы права на безопасность и права на свободу. Что из этого важнее?
Примеры обеспечения безопасности с помощью ИИ:
  • роботизация позволяет выполнять опасную работу, защищая людей;
  • автоматизированное наблюдение усиливает контроль правопорядка.
Постоянная слежка создаёт «сковывающий эффект», то есть осознание того, что за нашими действиями постоянно следят, ограничивает нашу истинную свободу действий в мире.

Представьте, что, выходя из дома, вы оказываетесь в окружении двух полицейских. Они не общаются с вами, а просто следуют в десяти метрах. Вы, вероятно, почувствуете себя неуютно и не сможете жить своей обычной жизнью. Таким образом, безопасность порой противоречит личной свободе и неприкосновенности частной жизни.
Безопасность и экология
Право на безопасную и здоровую окружающую среду становится все более значимым на фоне климатических изменений.

ИИ может содействовать:
  • мониторингу и прогнозированию последствий,
  • устойчивому развитию городов и транспортной сети,
  • снижению вредного воздействия промышленности.

Однако ИИ требует больших ресурсов и энергии, что тоже влияет на экологию.

Подводя итог, призыв «ИИ во благо» звучит многообещающе, но на практике реализация прав и нормативных ценностей часто сталкивается с множеством противоречивых интересов и глубокой несправедливостью, существующей в мире. При оценке безопасности важно учитывать пересечение с другими правами.
Инклюзивность и гендерный разрыв
Инклюзивность означает равные возможности участия в обществе вне зависимости от пола, расы, способностей и других характеристик.
Более миллиарда человек имеют инвалидность. ИИ может как углублять их маргинализацию, так и содействовать адаптации и поддержке (например, системы для слабовидящих, глухих, с когнитивными нарушениями).
Женщины часто менее цифрово- и алгоритмически грамотны и редко участвуют в создании технологий из-за социокультурных барьеров.
Многие ИИ-продукты разрабатываются с учётом мужских стандартов, что вызывает проблемы в применении для женщин.
Важно обеспечивать разнообразие и учитывать возрастные, гендерные, демографические, культурные и географические особенности пользователей.

5−4
ПРАВА ДЕТЕЙ
В ОБЛАСТИ ИИ

Дети сталкиваются с алгоритмами дома, в школе и во время игр. Алгоритмы формируют их окружающую среду, услуги, которыми они пользуются, и способы проведения времени.

Дети играют с интерактивными умными игрушками, смотрят видео с рекомендациями алгоритмов, управляют телефонами голосовыми командами, используют их для обработки изображений и развлечения в соцсетях.

Появление ИИ в жизни детей вызывает множество вопросов. Можно ли использовать рекомендательные алгоритмы для детей, если они не осознают, что взаимодействуют с компьютером? Как родителям давать советы об использовании интерактивных игрушек с ИИ и их влиянии на когнитивное развитие ребёнка? Что дети должны узнать об ИИ в школе, чтобы понимать технологии вокруг себя? С какого возраста ребёнок должен сам принимать решение о согласии на сбор данных? Как долго хранить эти данные?

Уязвимость детей и огромная роль ИИ в их жизни делают эту тему приоритетной.
Конвенция о правах ребёнка — это самый полный юридический документ, защищающий права детей (лиц до 18 лет). Его цель — обеспечить равенство детей перед законом в разных странах.

Конвенция — не просто закон, это этическая и юридическая основа для оценки прогресса стран в защите прав детей. Её содержание сводится к трём темам: ребёнок имеет право на особую защиту и заботу, на адекватное предоставление ресурсов со стороны общества и на участие в принятии решений, касающихся его самого, с учетом его возраста и зрелости.
Четыре главных принципа:
  • все дети равны,
  • интересы ребёнка должны иметь первостепенное значение,
  • ребёнок имеет право на достойную жизнь,
  • мнения ребёнка должны учитываться.

Родители и опекуны несут основную ответственность за заботу и воспитание. Если они не справляются, государство должно обеспечить опеку или усыновление.


Международные нормы пока не охватывают многие вопросы, связанные с ИИ и детьми. Но они выделяют ключевые права, затрагиваемые им: право на конфиденциальность, образование, игру и недискриминацию.

ГЛАВА 6: СПРАВЕДЛИВОСТЬ

Что означает справедливость по отношению к ИИ, как проявляется дискриминация посредством ИИ и что мы можем сделать, чтобы сделать эти системы менее предвзятыми?

6–1
ЧТО ТАКОЕ
СПРАВЕДЛИВОСТЬ?

Для мысленного эксперимента предположим, что из-за пандемии COVID-19 все выпускные экзамены в старших школах были отменены. Вместо экзамена была разработана альтернативная система выставления итоговых оценок за год. Эти оценки важны, поскольку на их основании принимают решения о зачислении в университеты.

Правительство решило, что учителя должны будут оценить, как, по их мнению, ученики справились бы с экзаменами. Для борьбы с завышением оценок был применён алгоритм, который корректировал оценки на основе исторических результатов школ.

Идея заключалась в том, что алгоритм компенсирует тенденцию учителей завышать оценки, чтобы получить более точное прогнозирование результатов экзаменов.
На национальном уровне распределение оценок соответствовало предыдущим годам. Однако алгоритм снизил ≈40% оценок, данных учителями.

При этом результаты учащихся из семей с низким социально-экономическим статусом были понижены чаще, чем у учеников из более обеспеченных семей. Для многих из них это стало серьёзной проблемой, повлиявшей на возможность поступления в университет.


Этот пример показывает, как алгоритмы могут не только создавать несправедливые результаты, но и усиливать уже существующие экономические и социальные предрассудки.

Справедливость — ключевой элемент стабильного общества.
По словам философа Джона Роулза, стабильность зависит от того, чувствуют ли члены общества, что их справедливо оценивают и обращаются с ними. Если люди считают, что с ними обращаются несправедливо, это ведёт к социальным конфликтам и беспорядкам.
По Канту, все люди обладают достоинством и должны быть равны. Несправедливое обращение, особенно на произвольных основаниях, нарушает это достоинство и ведёт к дискриминации.

Пример с оценками показывает сложность понятия справедливости. Алгоритм создавался для борьбы с завышением оценок, но в итоге он усилил социальную предвзятость.

6–2
ВИДЫ
СПРАВЕДЛИВОСТИ

Философы предлагали разные определения справедливости. По Аристотелю, «к равным следует относиться равно, а к неравным — неравно».

Этот принцип равенства означает, что люди должны получать равное обращение, если между ними нет существенных различий, относящихся к конкретной ситуации.

Однако принцип равенства критикуют за его «слепоту». Он не принимает во внимание, что люди начинают с разных позиций и имеют важные индивидуальные отличия. От принципа равенства принцип «справедливости» отличается тем, что он не требует одинакового обращения ко всем, а гарантирует равный доступ к возможностям. Например, справедливо, когда государство оказывает социальную помощь только тем, кто в ней действительно нуждается, а не всем без исключения.

Принцип справедливости не оправдывает различное обращение на основании родственности, возраста, пола, расы или религиозных взглядов — это считается дискриминацией.
Основные понятия:
  • равенство (equality) — все получают одинаковое обращение,
  • справедливость (equity) — каждый получает то, что ему нужно для успеха.
Виды справедливости:
  • распределительная справедливость — степень, в которой общество справедливо распределяет выгоды и нагрузки между своими членами;
  • воздающая справедливость — разумность наказаний, учитывающая серьёзность преступления и намерения нарушителя, исключая не относящиеся к делу критерии, например расу;
  • компенсаторная справедливость — насколько справедливую компенсацию получают люди за причинённые им травмы. Например, спор о том, должны ли владельцы шахт компенсировать шахтёрам ущерб здоровью, полученный на работе.

6−3
ДИСКРИМИНАЦИЯ
И ПРЕДВЗЯТОСТЬ


Предвзятость в последнее время стала ключевой проблемой этики ИИ, поскольку надежда на объективность алгоритмов оказалась несостоятельной.

Рассмотрим три примера алгоритмических систем.
Пример 1: подстановка слов.
Система анализирует тексты и выявляет, какие слова часто встречаются вместе, создавая ассоциации (например, «мужчина» относится к «королю» так же, как «женщина» к «королеве»).

Но исследователи обнаружили, что такие ассоциации часто отражают культурные стереотипы и предвзятости, например: «мать» ассоциируется с «медсестрой», а «отец» с «врачом».
Пример 2: алгоритм найма.
В 2014 году Amazon начал использовать ИИ для автоматизации отбора кандидатов, обучая модель на резюме предыдущих соискателей.

Вскоре выяснилось, что система дискриминирует женщин: резюме с упоминанием женских клубов или женских колледжей оценивались ниже.
Пример 3: кредитный рейтинг.
В 2018 году финский трибунал по вопросам недискриминации выявил, что автоматический отказ в кредите был обусловлен несколькими факторами — возрастом, полом, языком и местом проживания.

Трибунал отметил, что если бы заявитель был женщиной или шведоязычным, кредит был бы одобрен.
Слово «дискриминация» может иметь нейтральное значение — просто различать. Здесь же речь идёт о морально значимой дискриминации — несправедливом различении людей.

Рассмотрим два подхода:
1. Дискриминация — это различное обращение с людьми на основании их принадлежности к группе. При этом не каждое различие является дискриминацией.

Например, в Финляндии водительские права выдаются после обучения и экзаменов. Отказ людям с сильными нарушениями зрения считается справедливым, а не дискриминацией, так как управление автомобилем практически невозможно.

Другой пример — кафе, которое обслуживает только людей в зелёных футболках. Это уже различие по принадлежности к группе. Оно, возможно, социально вредное, но не считается морально дискриминационным.
2. Дискриминация — это различное обращение, основанное на восприятии принадлежности к социальной значимой группе, и приводящее к социальному вреду.

К социально значимым признакам относятся такие, которые важны для социализации в конкретном обществе и историческом контексте.

Например, европарламент выделяет такие признаки как: пол, раса, цвет кожи, этническая или социальная принадлежность, язык, религия, политические взгляды, национальность, имущество, инвалидность, возраст и ориентация.
Различают два вида наносимого вреда:
  • распределённый — связанный с неравенством в доступе к ресурсам и возможностям вроде зарплаты, шанса на собеседование или получения кредита. Например, алгоритмы хуже распознают темнокожих людей, что увеличивает риск аварий с участием автономного транспорта;
  • репрезентативный — связанный с образом группы в обществе: стереотипы, клевета и эксноминация. Может порождать социальную несправедливость, поддерживать угнетение и оправдывать репрессивные практики.
Предвзятость — это:
в статистике: несоответствие выборки генеральной совокупности;
в когнитивной науке : способ рассуждения, который с большой вероятностью приведёт к неверному или искажённому результату;
в социальной справедливости: подозрительное с моральной точки зрения несоответствие в обращении с людьми.
Дискриминационные практики подпитывают друг друга, поэтому предвзятость ИИ — это не только техническая проблема, но и результат истории социальных практик.

Рассмотрим основные способы проникновения предвзятости в систему.
Нерепрезентативная выборка

Данные, которые мы передаем в обучающую систему, не отражают точную картину мира в целом. Усиливая одни примеры явлений и подавляя другие, система формирует искажённую модель.

Например, способность распознавать лица зависит от этнической группы — в результате система классификации изображений Google обозначила чернокожих людей как «гориллы». Одна из причин — наборы данных имели плохое распределение примеров по гендерам и этносу, поэтому представление системы о лицах мира являлось белым и мужским. Обучающий алгоритм игнорирует плохо представленные субпопуляции для достижения более высокой предсказуемости на большей части набора данных.
Предвзятость классификации

Данные оцениваются через нашу их интерпретацию, которая порой сложно осуществима.

Например, прогнозирование правонарушений. Преступность сложно измерить, и поэтому сложно создать качественные наборы данных.

Мы можем измерить, например, количество арестов и обвинительных приговоров в надежде на хорошую корреляцию. К сожалению, аресты вряд ли можно считать нейтральным показателем. Они могут дать хорошее представление об общей преступности среди населения, но не позволяют эффективно обобщать данные по разным группам.

Например, в США по наркотическим статьям чернокожих арестовывают чаще, чем белых. Но это означает не то, что они чаще их совершают, а лишь то, что их чаще ловят. Поэтому любые выводы, основанные на таких данных, неизбежно будут повторять и усиливать несправедливость, которая и привела к их появлению.
Культурное невежество

Понятия «ИИ» и «машинное обучение» создают образ машинной автономии, но на самом деле их создание требует огромного объёма человеческого труда. Поэтому их поведение невозможно оценить, рассматривая только алгоритм и поступающие в него данные.

Выбор делается в процессе проектирования, разработки, интерпретации и обслуживания, и иногда этот выбор может создавать искажения в системе.

Например, способы «очистки» данных включают принятие решений о том, что является реальным сигналом, а что шумом.
Хороший пример — сбор имён через веб-формы. Чтобы предотвратить попадание в систему ложных данных, на вводимые имена накладываются определённые ограничения. Например, предполагается, что имя всегда односложно или что оно содержит только буквы от А до Я, или что оно всегда состоит более чем из двух букв.

Это может быть разумным предположением в ограниченном культурном контексте дизайнеров и программистов, но в реальности имена чрезвычайно разнообразны.
Универсальной формы для имён не существует, и для обеспечения полной инклюзивности все такие поля должны быть текстовыми, произвольной длины и допускающими любые символы.

Без учёта культурного многообразия система может быть непреднамеренно спроектирована так, чтобы исключить из рассмотрения большие группы людей, не придерживающиеся доминирующих культурных стандартов.
Важно отметить, что при анализе систем ИИ на предмет предвзятости недостаточно просто анализировать алгоритмы. Предвзятость может возникать по историческим, культурным, проектным и иным причинам, поэтому весь процесс разработки ИИ должен находиться под пристальным вниманием.

6−4
УСТРАНЕНИЕ
ПРЕДВЗЯТОСТИ

Как сделать ИИ более справедливым и менее предвзятым? Нет универсального решения — предвзятость проявляется по-разному, и нет единого определения алгоритмической справедливости. Но можно рассмотреть кейсы и подумать, как решить проблемы.

Например, ситуация с дискриминацией в найме, В основе предвзятости исторические практики, на которых обучался алгоритм, и предположение, что прошлое определяет допустимые границы. Эту проблему нельзя решить только технологически. Нужны культурные и структурные перемены.
Антиклассификация
Один из технических способов — удаление из данных явных признаков по полу, этничности и их коррелирующих признаков. Например, упоминание в резюме «женского» колледжа может косвенно указывать на пол.

Это уменьшает предвзятость, но иногда такой подход ухудшает справедливость, если важные признаки работают по-разному в разных группах (например, симптомы сердечного приступа у мужчин и женщин разные).
Ресемплирование
Для исправления дисбаланса в данных (например, в распознавании лиц, где в выборке мало представителей определённых групп) возможно уменьшить выборку или создать синтетические данные для слабо представленных групп.

Однако если данные слишком дисбалансированы, может потребоваться их повторный сбор. В высокорисковых сферах даже сбалансированные данные и беспристрастный алгоритм не гарантируют справедливость и отсутствие дискриминации.
Иногда решение — вовсе не развивать такой ИИ.
Дискриминация вне предвзятости
Важно помнить, что дискриминация ≠ предвзятость.

Хотя предвзятость часто вызывает дискриминацию и хорошо формализуется в технических терминах, дискриминация выходит за рамки технических моделей.

Необходимо анализировать системы целиком — институты, процессы, контекст, в которых используется ИИ.
В 2018 исследователи из Стэнфорда создали ИИ, который с 81%-й точностью определял гомосексуальность по фото лица. Это вызвало этические споры из-за связи с псевдонаукой физиогномикой и рисков дискриминации.
Ключевой этический вопрос — не точность, а факт возможности дифференцированного обращения на основе воспринимаемой принадлежности к социальной группе.
Важно не сводить этику ИИ к простым метрикам вроде «отсутствия предвзятости».

Например, интеграция подобной технологии в систему персонализированной онлайн-рекламы. Даже если классифицирующий ИИ по всем техническим стандартам справедлив и беспристрастен, он основывает выдачу на дискриминационном принципе, согласно которому предполагаемая сексуальная ориентация является веской причиной для различного отношения к людям.

Это подводит нас к важному выводу: остерегайтесь ловушки упрощений — избегайте сведения понятия этики к поверхностным, количественным значениям. ИИ участвует в сложных социальных процессах, этика которых не ограничивается входами и выходами алгоритмов.

ГЛАВА 7: ЭТИКА ИИ НА ПРАКТИКЕ

Актуальные проблемы в этике ИИ и прогноз развития событий.

7−1
ОТ ПРИНЦИПОВ
К ДЕЙСТВИЯМ

Сегодня обсуждения этики ИИ в основном вращаются вокруг создания принципов и предотвращения рисков. На их основе формируются национальные политики и международные инициативы.

Например, организация AlgorithmWatch из Берлина собрала свыше 160 этических руководств по ИИ. Почти каждый участник отрасли имеет собственный свод правил, демонстрирующий их «этическую вовлечённость».

Хотя принципы влияют на законы и регуляции, исследования показывают, что они мало меняют реальные практики разработки.

Например, исследование McNamara и соавторов (2018) показало: этический кодекс не влияет на поведение разработчиков. Требуются новые меры, которые помогали бы им распознавать риски и неэтичные ситуации на основе примеров известных неудач.
«Этика играет роль велосипедного тормоза на межконтинентальном самолёте» © Ульрих Бек
Часто обсуждения этики сводятся к формальным техническим решениям, игнорируя более глубокие социальные и культурные проблемы. Это называют «этическим вымыванием» — когда этическая риторика маскирует отсутствие реальных изменений.

Например, попытки устранить предвзятость в данных помогают соответствовать формальным требованиям, но если итоговые технологии все равно используются для массового контроля или подавления, то понятие справедливости остаётся невыполненным.

ИИ часто описывают как коллективный проект человечества — идеал, к которому все стремятся, решая этические проблемы с помощью технологических средств. Это отражается в утверждениях типа «ИИ должен уважать человеческие ценности» или «в ИИ важен человеческий фактор».
Более корректное представление: ИИ, как и любая другая технология, находится в пространстве между человеческими сообществами и вовлечён в их конфликты и отношения власти.

Здесь есть не только благие намерения, но и злоумышленники, и сознательные злонамеренные применения ИИ:
  • военное применение,
  • автоматизированная пропаганда,
  • социальный контроль,
  • манипуляции и слежка.
Таким образом, этика ИИ — это не просто свод правил для инженеров, а сложный культурный и социальный проект, требующий честного и критического осмысления.

7−2
ЭТИКА
КАК ПРАКТИКА

Вопрос этических аспектов технологий не нов. Он поднимался на протяжении многих этапов технологического развития.

Социолог Лэнгдон Виннер в своей статье 1990 года «Этика инженеров и политическое воображение» отмечает, что этические дискуссии часто ограничены гипотетическими случаями без критического осмысления всей инженерной индустрии. Аналогичные проблемы есть и у современной этики ИИ спустя 30 лет.

Современный проект этики ИИ вовлекает гораздо больше заинтересованных лиц — компаний, сообществ, государств и отдельных специалистов. Публикация этических руководств стала стандартным способом заниматься этикой.
Перформативность — это идея о способности слов влиять на действия в мире, выходя за рамки описания.

Например, когда сотрудник ЗАГСа объявляет пару «мужем и женой», он не описывает состояние их отношений. Скорее, институт брака возникает именно благодаря этому заявлению — слова совершают бракосочетание двух людей.

Аналогично, этические тексты создают и управляют ожиданиями разных участников ИИ-экономики.

Три способа функционирования этических руководств:
1. Как призыв к дерегулированию.
Этические декларации могут служить стратегией саморегуляции компаний — мол, мы и так достаточно этичны, так зачем регулировать нас извне?

Это особенно актуально для частного бизнеса, но и государственные документы балансируют между этикой, регулированием и рынком.
2. Как подтверждения.
В эпоху соцсетей новости о нечестных компаниях быстро разлетаются и негативно влияют на их репутацию.

Этические документы демонстрируют общественности и инвесторам, что компания способна вести моральные дискуссии и контролировать критику.
3. Как проявление экспертности.
Бум ИИ потребовал новых экспертов, особенно на пересечении технологий и общества. Этика ИИ стала полем для демонстрации статуса и влияния.

Публикация этических документов — способ заявить о себе как об эксперте и отстоять своё право голоса в будущем дискурсе.
Даже если руководства мало влияют на практику, они выполняют важные коммуникационные функции и задают ориентиры для будущего этичного ИИ.

7−3
ПРОДВИЖЕНИЕ
ЭТИКИ

Как этика ИИ должна развиваться дальше? Какие темы обсуждать? Какие практики и методы применять?

Ответить сложно, но взглянем на то, что осталось вне поля текущих этических руководств.
Финская национальная программа искусственного интеллекта AuroraAI сочетает современные технологии, продуманные сервисы и человекоориентированный подход. Её цель — связать государственные учреждения с гражданами для более гибкого и эффективного предоставления персонализированных услуг.

В сети AuroraAI набор предлагаемых услуг и рекомендаций адаптирован алгоритмами под конкретный регион. В будущем для персонализации могут использоваться данные, которыми владеют государство или компании (при наличии юридических оснований по GDPR).

AuroraAI иллюстрирует, как технологии влияют на управление. Традиционно взаимодействие между государством и гражданином было основано на принуждении — государство требует выполнения правил. Здесь же добавляется рекомендационный аспект — система предлагает услуги.
Возникают вопросы: не начнут ли алгоритмы предопределять будущее пользователя? Не основаны ли рекомендации на скрытых идеалах «хорошей жизни»? Не поддерживают ли они существующие предрассудки? Насколько система обеспечивает цифровую инклюзивность и равенство?

Если ИИ будет создавать слишком узкие стандарты «благополучия» или запутывать роли государства, то принципы хорошего управления будут нарушены.

В AuroraAI эти вопросы признают, и для их обсуждения создан этический совет.
Справедливость, ответственность и прозрачность — доминирующие темы этики ИИ. При этом, как показывает AuroraAI, тактические вопросы помощи, благополучия и отношений граждан и государства — ключевые моральные аспекты для внедрения ИИ в муниципальные службы.
Пример такого подхода — схема Кроуфорда и Джолера, показывающая полный жизненный цикл ИИ: от разработки, рынков, инфраструктур до добычи ресурсов и условий труда.

Этот взгляд выявляет часто скрываемые этические аспекты, например экологический ущерб от добычи сырья и трудовые условия сотрудников обработки данных.
Создание справедливого ИИ — это не только публикация правил, но и вовлечение граждан, бизнеса и НКО в построение будущего.

По словам Карли Кинд, эта третья волна этического ИИ уже наступила:
  • суд в Нидерландах закрыл систему выявления мошенничества на основе ИИ,
  • студенты в Великобритании выходят на протесты из-за алгоритмических решений,
  • американские компании добровольно ограничивают технологии распознавания лиц.

Это движение выходит за рамки технических и принципиальных вопросов, стремясь к реальному исправлению дисбалансов и достижению социальной справедливости.

Вопросы этики ИИ касаются всех этапов жизненного цикла системы — от исследований и разработки до использования, поддержки и утилизации. Участники — исследователи, программисты, компании, государство, пользователи — все влияют и несут ответственность.
ИИ затрагивает такие сферы как труд, здравоохранение, образование, транспорт, медиа, а также свободу слова, доступ к информации, приватность, демократию и дискриминацию.
ИИ меняет человеческий опыт и ставит этические и философские вопросы о человеческом достоинстве и свободе.
ИИ развивается быстро. Как он повлияет на нас — зависит от наших решений. Но этичное развитие может принести пользу не только людям и обществу, но и всей планете.

«Выбор, а не случай, определяет вашу судьбу» ©Аристотель.


Если вас волнует тема этичности ИИ так же как и нас, давайте обсуждать, вырабатывать общее видение и действовать согласно ему!

Также приглашаем подписаться на Ябуку, наш Телеграм-канал об этичных коммуникациях.
Как и все, мы используем куки, и должны об этом уведомить.
Ладно