AI · ETHICS · DECISION-MAKING · 4 МИН ЧТЕНИЯ · 2026-04-08
Что машина не может решить
AI хорошо предсказывает. Решение — это другая операция. Их часто путают.

«Знание — это одно, мудрость — другое. Знание копит, мудрость выбирает». — фрагмент Гераклита, в реконструкции Дильса.
Современные системы машинного обучения — это машины предсказания. Они оценивают вероятность исхода при заданных входных данных. Это полезно. Но это не решение. Различение это не педантичное — оно практическое: путаница между предсказанием и решением приводит к делегированию морального выбора алгоритму, который никогда не претендовал на роль морального субъекта.
Решение — это акт, который добавляет к предсказанию ценность. Что мы предпочитаем? Что мы готовы заплатить? Что мы считаем приемлемой ошибкой первого рода против ошибки второго? Машина не отвечает на эти вопросы — она их предполагает заданными. Если их не задал человек явно, их задал по умолчанию инженер, написавший loss function три года назад, не зная, что его выбор станет этикой клиники, банка или суда.
Античная рамка
Аристотель в Никомаховой этике различал техне и фронесис. Техне — это знание того, как сделать вещь правильно по правилу: плотник знает технику, врач знает протоколы. Фронесис — это практическая мудрость: знание того, что делать в конкретной ситуации, где правила не достаточно. Хороший врач не сводится к ходячему алгоритму: его искусство — выбрать, какое из правил применить в этом конкретном случае, и взять на себя последствия выбора.
AI — это техне в чистом виде. Алгоритм знает, как вычислить вероятность; он не знает, стоит ли действовать на её основании. Решение — фронесис, и оно остаётся за человеком всегда, даже если человек этого не замечает.
Современная путаница
Когда мы делегируем AI «решение» — найм, кредит, медицинский диагноз — мы на деле делегируем ему предсказание. Решение остаётся за нами: мы выбираем порог, мы выбираем функцию потерь, мы выбираем, что значит «успех». Если мы не делаем этот выбор сознательно — мы делегируем его дефолтам системы. И тогда дефолты становятся нашей этикой.
Скрытая опасность здесь — не «восстание машин», а перенос ответственности. Когда отказ в кредите подаётся как «алгоритм решил», человек, который на самом деле выбирал порог, скрывается за машиной. Античная этика называла такое скрывание кощунством против фронесиса: попыткой избежать ответственности, переодев её в ткань правила.
Где проходит граница
Граница машинного решения проходит там, где задействованы три вещи: ценности, которые невозможно перечислить заранее; контексты, где правило само нуждается в исключении; и ответственность, которую кто-то должен нести лично. Аристотель говорил, что фронесис требует опыта — то есть исторического тела, прошедшего через ошибки и сохранившего память о них. У машины такого тела нет; она «помнит» только то, что в датасете.
Машина может помочь решить — она не может решить за. Делегировать ей выбор — значит сделать выбор, не назвав его выбором.
Что значит «оставить решение себе»
Это значит — каждый раз, когда AI выдаёт оценку, спросить: что я с этим делаю? Не «верно ли предсказание», а «какое действие предсказание оправдывает». Это и есть граница, которую машина не может перейти. Хороший интерфейс AI-инструмента честно показывает, где кончается предсказание и начинается решение, и не пытается замаскировать второе под первое.
Организации, которые это понимают, документируют не только модели, но и пороги: кто их выбрал, на основании каких ценностей, с какой датой пересмотра. Это античная дисциплина, переведённая на язык machine ops.
Делегирование как корпоративная анестезия
В крупных организациях есть скрытая выгода от делегирования решения машине, никем не названная вслух: никто не виноват. Если кредит отказан алгоритмом, гнев клиента распыляется в воздухе; если отказан человеком — у гнева есть имя, и имя несёт цену. Машина становится корпоративной анестезией: она снимает боль ответственности, не снимая факта решения.
Это удобно в краткой перспективе и разрушительно в долгой. Античная этика называла такое перекладывание кощунством против фронесиса: ответственность нельзя выдать алгоритму, потому что алгоритм не имеет статуса морального субъекта. Когда мы делаем вид, что «решила машина», мы не убираем решение — мы только убираем имя того, кто его принял. Решение остаётся, имя исчезает, и накапливается то, что социологи называют дефицитом легитимности.
Лучшие организации строят AI-инфраструктуру так, чтобы имя оставалось всегда. Каждое автоматическое решение имеет владельца; каждый порог имеет автора; каждый отказ от вмешательства имеет дату пересмотра. Это и есть техническая форма ответственности, переведённая в эпоху алгоритмов.
Юридические системы постепенно догоняют эту логику. Европейский AI Act требует «человека в петле» для решений с высокой ставкой; американские предложения по AI Bill of Rights настаивают на праве знать, что решение принято алгоритмом, и право на человеческий пересмотр. Это не бюрократия — это попытка вернуть имя в систему, из которой имя было удалено намеренно или по халатности. Стоики назвали бы такое регулирование возвратом просопона — лица, без которого этика невозможна. Машина без лица не несёт ответственности; человек, скрытый за машиной, перекладывает ответственность на пустоту, которая никому ничего не должна.
Что делать
Когда вы используете AI для классификации, прогноза или ранжирования — выпишите явно три вещи. Что предсказывает модель. Какой порог превращает предсказание в действие. Кто отвечает за выбор порога. Эти три ответа должны быть на бумаге и подписаны человеком. Если ни один из них вы не можете назвать — вы не используете AI, AI использует вас, незаметно навязывая свои дефолты как ваши решения. Фронесис не делегируется. Никогда.
Письмо из портика
Раз в неделю — лонгрид, цитата, практика. Без промо. Отписка в один клик.
Нажимая «Подписаться», вы соглашаетесь получать письма Stoa.
Ещё хроники