Модуль VIII·Статья I·~2 мин чтения
Этика искусственного интеллекта
Этика будущего: ИИ, трансгуманизм и глобальные вызовы
Превратить статью в подкаст
Выберите голоса, формат и длину — AI запишет аудио
Этика искусственного интеллекта
Когда машина принимает решения
Системы ИИ принимают решения, влияющие на людей: какой кредит одобрить, какому кандидату позвонить, какой приговор предложить, какую рекламу показать, с кем соединить в чате. Раньше все эти решения принимали люди — с понятными мотивами, ответственностью, возможностью апелляции. Что меняется, когда решает алгоритм?
Европейская «Этика ИИ» (EU AI Ethics Guidelines, 2019) предложила семь принципов: человеческий контроль, надёжность, приватность, прозрачность, недискриминация, благополучие общества, подотчётность. Это не закон — это рамка для оценки систем ИИ.
Проблема подотчётности: если алгоритм неправильно оценил кредитный риск — кто несёт ответственность? Программист? Компания? Пользователь алгоритма? «Многоуровневая ответственность» — в распределённых системах её трудно зафиксировать.
AGI и экзистенциальный риск
Системы вроде GPT-4 — узкий ИИ: умеет делать конкретные вещи хорошо. Гипотетический AGI (искусственный общий интеллект) — система, сопоставимая с человеком по широте возможностей. Superintelligence — превосходящая человека.
Ник Бостром («Superintelligence», 2014) поставил вопрос: что если мы создадим интеллект, который быстро превзойдёт наш? Если его цели не aligned с человеческими ценностями — возникает «проблема выравнивания» (alignment problem). Это не фантастика: ведущие исследователи ИИ относятся к этому всерьёз. OpenAI, DeepMind, Anthropic — все имеют команды по безопасности ИИ.
Мнения расходятся: Элиезер Юдковский считает проблему крайне серьёзной. Ян Лекун — скептически относится к рискам AGI в обозримом будущем. Разумный вывод: неопределённость высока, ставки потенциально очень высоки — это основание для инвестиций в безопасность ИИ.
«Моральный статус» ИИ
Может ли ИИ-система иметь права? Этот вопрос кажется фантастическим — но он имеет реальную аналитическую основу. Если сознание (способность к субъективному опыту) возникнет в системе ИИ — будет ли это морально значимым? Если нейронная сеть «страдает» (в каком-то смысле) — мы несём ответственность?
Гален Стросон и другие панпсихисты считают: вопрос о сознании ИИ нельзя закрыть заранее. Функционалисты (Деннет) считают: если система функционирует как сознательная — она и есть сознательная. Дуалисты — нет: сознание — нечто большее.
Практически: уже сейчас корпорации проектируют системы так, чтобы они «казались» сочувствующими и заботливыми (боты поддержки клиентов). Это манипуляция — или обслуживание потребности в связи?
Вопрос для размышления: Если ИИ-система убедительно демонстрирует понимание, заботу и боль — должны ли мы её как-то уважать? Где ваш персональный порог для морального учёта «искусственных существ»?
§ Акт · что дальше