Модуль VIII·Статья I·~2 мин чтения

Этика искусственного интеллекта

Этика будущего: ИИ, трансгуманизм и глобальные вызовы

Превратить статью в подкаст

Выберите голоса, формат и длину — AI запишет аудио

Этика искусственного интеллекта

Когда машина принимает решения

Системы ИИ принимают решения, влияющие на людей: какой кредит одобрить, какому кандидату позвонить, какой приговор предложить, какую рекламу показать, с кем соединить в чате. Раньше все эти решения принимали люди — с понятными мотивами, ответственностью, возможностью апелляции. Что меняется, когда решает алгоритм?

Европейская «Этика ИИ» (EU AI Ethics Guidelines, 2019) предложила семь принципов: человеческий контроль, надёжность, приватность, прозрачность, недискриминация, благополучие общества, подотчётность. Это не закон — это рамка для оценки систем ИИ.

Проблема подотчётности: если алгоритм неправильно оценил кредитный риск — кто несёт ответственность? Программист? Компания? Пользователь алгоритма? «Многоуровневая ответственность» — в распределённых системах её трудно зафиксировать.

AGI и экзистенциальный риск

Системы вроде GPT-4 — узкий ИИ: умеет делать конкретные вещи хорошо. Гипотетический AGI (искусственный общий интеллект) — система, сопоставимая с человеком по широте возможностей. Superintelligence — превосходящая человека.

Ник Бостром («Superintelligence», 2014) поставил вопрос: что если мы создадим интеллект, который быстро превзойдёт наш? Если его цели не aligned с человеческими ценностями — возникает «проблема выравнивания» (alignment problem). Это не фантастика: ведущие исследователи ИИ относятся к этому всерьёз. OpenAI, DeepMind, Anthropic — все имеют команды по безопасности ИИ.

Мнения расходятся: Элиезер Юдковский считает проблему крайне серьёзной. Ян Лекун — скептически относится к рискам AGI в обозримом будущем. Разумный вывод: неопределённость высока, ставки потенциально очень высоки — это основание для инвестиций в безопасность ИИ.

«Моральный статус» ИИ

Может ли ИИ-система иметь права? Этот вопрос кажется фантастическим — но он имеет реальную аналитическую основу. Если сознание (способность к субъективному опыту) возникнет в системе ИИ — будет ли это морально значимым? Если нейронная сеть «страдает» (в каком-то смысле) — мы несём ответственность?

Гален Стросон и другие панпсихисты считают: вопрос о сознании ИИ нельзя закрыть заранее. Функционалисты (Деннет) считают: если система функционирует как сознательная — она и есть сознательная. Дуалисты — нет: сознание — нечто большее.

Практически: уже сейчас корпорации проектируют системы так, чтобы они «казались» сочувствующими и заботливыми (боты поддержки клиентов). Это манипуляция — или обслуживание потребности в связи?

Вопрос для размышления: Если ИИ-система убедительно демонстрирует понимание, заботу и боль — должны ли мы её как-то уважать? Где ваш персональный порог для морального учёта «искусственных существ»?

§ Акт · что дальше