Модуль II·Статья II·~2 мин чтения

Этика искусственного интеллекта: автономия машин и ответственность людей

Прикладная этика: дилеммы современного мира

Превратить статью в подкаст

Выберите голоса, формат и длину — AI запишет аудио

Этика искусственного интеллекта: автономия машин и ответственность людей

Почему ИИ требует этики

Искусственный интеллект — не просто технология, ускоряющая существующие процессы. Это технология, принимающая решения — или имитирующая принятие решений — в ситуациях, где традиционно действовали люди. Когда алгоритм отказывает в кредите, рекомендует приговор или управляет автомобилем, возникают вопросы, которые раньше задавались только о людях: кто отвечает? по каким принципам принимается решение? как обеспечить справедливость?

Центральные этические проблемы ИИ:

Алгоритмическая предвзятость: системы машинного обучения обучаются на данных, отражающих исторические неравенства. Если исторически определённые группы чаще признавались виновными, алгоритм «научится» так же относиться к этим группам — воспроизводя, а не исправляя несправедливость. Система COMPAS (оценка риска рецидива) показала статистически значимую предвзятость против афроамериканцев — и это данные из реального судопроизводства США.

Прозрачность и объяснимость: «чёрный ящик» нейронных сетей непрозрачен. Когда алгоритм отказывает в займе, пациент или клиент имеет право знать почему. Европейский GDPR закрепляет «право на объяснение». Но техническая объяснимость сложных моделей — нерешённая проблема.

Проблема ответственности: если беспилотный автомобиль сбивает пешехода — кто виноват? Производитель? Программист? Владелец? Алгоритм не является моральным субъектом. Но традиционные правовые концепции ответственности созданы для моральных субъектов — людей.

Дилемма трамвая в автономном транспорте

Классический мысленный эксперимент — дилемма трамвая — получил новое измерение с автономными автомобилями. Беспилотный автомобиль теряет управление: либо ехать прямо и сбить пять пешеходов, либо свернуть и сбить одного. Трамвай управляет человек и реагирует инстинктивно. Автомобиль выполняет заранее запрограммированный алгоритм.

Это значит: кто-то должен заранее решить, как автомобиль будет вести себя в таких ситуациях. Это — этическое решение, принимаемое инженерами и регуляторами. MIT Media Lab провёл «Моральную машину» — опрос миллионов людей из 233 стран о предпочтениях в таких ситуациях. Результаты: значительные культурные различия в том, чью жизнь считать приоритетной.

Автономное оружие

Летальные автономные системы (LAWS) — «роботы-убийцы» — стали одним из наиболее острых этических вопросов ИИ. Аргументы за разработку: они не устают, не паникуют, не совершают эмоциональных ошибок; могут минимизировать потери среди своих. Аргументы против: принятие решения о жизни и смерти требует морального субъекта; делегирование этого решения машине — отказ от человеческой ответственности; снижение «порога» начала войны, если воевать будут машины.

Международное гуманитарное право требует различения между комбатантами и мирным населением, принципа пропорциональности, принципа предосторожности. Могут ли машины применять эти нормы? Это открытый вопрос.

Принципы этики ИИ

Ведущие организации (ОЭСР, ЕС, IEEE, Google, Microsoft) выработали принципы этики ИИ с различными акцентами, но базовым консенсусом:

  • Справедливость: системы ИИ не должны дискриминировать по защищённым признакам
  • Прозрачность: решения должны быть объяснимы
  • Подотчётность: должны быть механизмы ответственности за решения ИИ
  • Приватность: данные используются с согласия и защищены
  • Безопасность: системы надёжны и не причиняют вреда
  • Человеческий контроль: в критических решениях должен оставаться человек

Переход от принципов к практике — главный вызов. «Ответственный ИИ» пока больше маркетинг, чем стандарт с механизмами верификации.

§ Акт · что дальше