§ ИСЧИСЛЕНИЕ · 20 МИН ЧТЕНИЯ · Обновлено 2026-05-13
Основы теории вероятностей для инженеров
Математика неопределённости — для тех, кому нужно принимать решения, а не просто сдавать экзамены.
"Вероятность — это подлинный путеводитель в жизни."

Теория вероятностей — это математический каркас рассуждений об неопределённости. Любой прогноз, любое решение в условиях риска, любая модель машинного обучения опирается на вероятность. Тем не менее большинство инженеров и учёных, использующих вероятности, имеют лишь смутную интуицию относительно того, что они означают: они помнят формулы, не понимая структуры.
Эта статья рассматривает, что такое вероятность, формальную структуру (вероятностные пространства), случайные величины, важнейшие распределения, условную вероятность и теорему Байеса, математическое ожидание и дисперсию, центральную предельную теорему и применения в инженерии и машинном обучении.
Что такое вероятность
Вероятность — это мера степени возможности наступления события. Мы приписываем каждому событию число между 0 и 1:
- 0 означает, что событие невозможно.
- 1 означает, что событие наверняка произойдёт.
- 0.5 означает, что событие столь же вероятно, как и невероятно.
Это интуитивное представление. Формальное определение более аккуратно.
Вероятностное пространство — это тройка , где:
- — пространство элементарных исходов, множество всех возможных исходов.
- — семейство событий, подмножеств , которым мы можем приписывать вероятности.
- — вероятностная мера, функция из в , удовлетворяющая:
- .
- для любого события .
- Для несовместимых событий : .
Это аксиоматизация Колмогорова (1933), давшая теории вероятностей её современное строгое основание.
На практике вы редко думаете о вероятностных пространствах явно. Вы работаете со случайными величинами, распределениями и вероятностями событий.
Дискретные и непрерывные вероятности
Дискретная вероятность описывает ситуации с счётным набором исходов. Подбрасывание монеты, броски кубика, число клиентов, число просмотров страниц.
Непрерывная вероятность описывает ситуации с несчётным множеством исходов. Измерения, времена, веса, длины.
Различие важно, потому что дискретные распределения приписывают отдельным исходам положительную вероятность (например, ), тогда как непрерывные распределения приписывают нулевую вероятность любому отдельному исходу. Для непрерывных величин говорят о вероятностях диапазонов: или .
Непрерывные вероятности описываются функцией плотности вероятности (PDF). Плотность обладает свойством
Сама функция плотности не является вероятностью — это плотность. Интеграл плотности по интервалу даёт вероятность попасть в этот интервал.
Случайные величины
Случайная величина — это функция из пространства элементарных исходов в множество действительных чисел. По-русски: величина, значение которой зависит от случайного исхода.
Примеры:
- = число орлов в 10 подбрасываниях монеты (дискретная, принимает значения от 0 до 10).
- = рост случайно выбранного взрослого человека (непрерывная, принимает значения примерно в диапазоне 50–250 см).
- = время до отказа сервера (непрерывная, принимает положительные действительные значения).
Случайные величины обычно обозначаются заглавными буквами (, , ). Конкретные реализации (наблюдаемые значения) обозначаются строчными буквами (, , ).
Типичные распределения
Небольшое число распределений постоянно встречается в приложениях. Имеет смысл запомнить их формы и свойства.
Дискретные распределения:
Bernoulli — один эксперимент с двумя исходами. , . Пример: одно подбрасывание монеты.
Binomial — число успехов в независимых испытаниях Bernoulli. . Пример: число орлов в 10 подбрасываниях монеты.
Poisson — число событий в фиксированном интервале, когда события происходят независимо с интенсивностью . . Пример: число клиентов, пришедших за час.
Geometric — число испытаний до первого успеха. . Пример: число подбрасываний монеты до первого орла.
Непрерывные распределения:
Uniform — одинаково вероятно оказаться где угодно в . Плотность: для , ноль вне этого интервала.
Normal (Gaussian) — колоколообразная кривая. Плотность: . Среднее , дисперсия . Это наиболее важное распределение в теории вероятностей и статистике.
Exponential — время ожидания между событиями пуассоновского процесса. Плотность: для . Обладает свойством отсутствия памяти.
Beta — распределение на , полезное для моделирования вероятностей. Плотность: .
Каждое распределение имеет параметры, определяющие его форму. Для каждого можно вычислить математическое ожидание, дисперсию и другие моменты по параметрам.
Условная вероятность и теорема Байеса
Условная вероятность события при условии задаётся как
при условии, что . Иными словами: вероятность , если мы знаем, что произошло .
Теорема Байеса переписывает это так:
Почему это важно: теорема позволяет инвертировать условные вероятности. Если вам известно , а нужно , теорема Байеса даёт нужное выражение.
Пример 1 — классический пример с медицинским тестом: Болезнью страдает 1 из 1000 человек. Тест на болезнь имеет точность 99% (и по чувствительности, и по специфичности). Если человек получил положительный результат, какова вероятность, что у него действительно есть болезнь?
Интуиция подсказывает: около 99%, раз тест точен на 99%. Теорема Байеса показывает иное.
Пусть = «болен», = «тест положителен».
. (доля истинно положительных результатов). (доля ложноположительных результатов).
По закону полной вероятности: .
По Байесу: .
Таким образом, если вы получили положительный результат, вероятность того, что вы действительно больны, составляет около 9%, а не 99%. Высокая (99%) точность теста перекрывается очень низкой априорной вероятностью болезни.
Это ошибка игнорирования базовой частоты (base rate fallacy), одна из самых значимых когнитивных ошибок в медицине, судебной практике и сфере безопасности.
Математическое ожидание и дисперсия
Математическое ожидание (или среднее) случайной величины — это взвешенное среднее:
Дискретный случай: . Непрерывный случай: .
Пример 2: Математическое ожидание броска игрального кубика.
.
(Замечание: 3.5 не является возможным исходом. Математическое ожидание — это среднее, а не типичное значение.)
Дисперсия измеряет разброс распределения:
Среднеквадратическое отклонение — это квадратный корень из дисперсии: .
Линейность математического ожидания: для любых случайных величин , и констант , . Это верно независимо от того, независимы ли и .
Дисперсия нелинейна: . Для независимых величин ковариация равна нулю, и дисперсии складываются.
Центральная предельная теорема
Это самая важная теорема в теории вероятностей. Неформулированно:
Сумма (или среднее) большого числа независимых случайных величин, независимо от их индивидуальных распределений, приближается нормальным распределением.
Формально: если — независимые и одинаково распределённые (i.i.d.) случайные величины с математическим ожиданием и дисперсией , то при большом :
по распределению, где — выборочное среднее.
Почему это важно. Большинство реальных величин являются суммами или средними многих малых случайных влияний — ошибки измерения, финансовые доходности, биологические признаки, отклонения в производстве. Центральная предельная теорема объясняет, почему нормальное распределение встречается повсюду: не потому, что вселенная «любит» его, а потому, что суммы независимых случайных величин к нему стремятся.
Центральная предельная теорема также лежит в основе статистического вывода. Доверительные интервалы, проверка гипотез и большая часть практической статистики опираются на асимптотическую нормальность, которую она гарантирует.
Применения
Надёжность инженерных систем. Экспоненциальное распределение моделирует время до отказа элементов с постоянной интенсивностью отказов. Для составных систем (несколько элементов последовательно или параллельно) распределения времени до отказа можно вычислить из распределений отказов компонентов.
Теория связи. Информационная теория Шеннона использует вероятности для количественного описания информации. Пропускная способность канала, частоты ошибок и сжатие данных — всё это задачи теории вероятностей.
Машинное обучение. Выходы классификаторов представляют собой распределения вероятностей. Байесовские методы моделируют неопределённость в параметрах и предсказаниях. Генеративные модели обучаются вероятностным распределениям данных.
Финансы. Доходности активов моделируются как случайные величины. Дисперсия портфеля вычисляется по ковариационной матрице доходностей. Формула оценки опционов Блэка—Шоулза предполагает, что доходности распределены нормально (а цены логнормально).
Контроль качества. Статистический контроль процессов использует распределения вероятностей измерений в производстве для обнаружения дрейфа процесса до того, как проблемы с качеством станут серьёзными.
Часто задаваемые
- В чём разница между теорией вероятностей и статистикой?
- Теория вероятностей идёт в «прямом» направлении: имея модель случайности, предсказывает исходы. Статистика идёт в «обратном» направлении: по наблюдаемым исходам восстанавливает лежащую в основе модель. Они используют одну и ту же математику, но в противоположных направлениях.
- Что такое центральная предельная теорема и почему она важна?
- ЦПТ утверждает, что сумма многих независимых случайных величин стремится к нормальному распределению, независимо от их индивидуальных распределений. Она важна потому, что (1) объясняет, почему нормальность так распространена в природе, и (2) служит основой статистического вывода — доверительных интервалов, проверок гипотез и т.п.
- В чём разница между независимыми и некоррелированными величинами?
- Независимость: $P(A \cap B) = P(A) P(B)$. Отсутствие корреляции: $E[XY] = E[X] E[Y]$. Независимость влечёт некоррелированность, но не наоборот. Некоррелированные величины могут иметь нелинейную зависимость.
- Теорема Байеса применяется только в медицинской диагностике?
- Нет — Байес используется всюду, где есть неопределённость. Фильтрация спама (Naive Bayes), оценка доказательств в суде, классификаторы в машинном обучении, научный вывод (байесовская статистика), прогнозирование (байесовские методы в метеорологии). Медицинский пример известен потому, что наглядно демонстрирует ошибку игнорирования базовой частоты.
- Почему нормальное распределение так распространено?
- Из-за центральной предельной теоремы. Всё, что является суммой многих независимых влияний, будет приблизительно нормально распределено. Рост людей, IQ, ошибки измерений, финансовые доходности на коротких интервалах — всё это приблизительно нормально благодаря ЦПТ.
- В чём разница между функцией распределения вероятностей и функцией плотности?
- Для дискретных величин функция распределения вероятностей (PMF) задаёт $P(X = x)$. Для непрерывных величин функция плотности вероятности (PDF) задаёт плотность $f(x)$ — вероятность попасть в интервал равна интегралу плотности по этому интервалу. Функция распределения (CDF), $F(x) = P(X \leq x)$, определена для обоих случаев.
— ДЕЙСТВИЕ —
Цитированное и далее
- ·Blitzstein, J. and Hwang, J. (2019). Introduction to Probability, 2nd edition. Chapman & Hall.
- ·Ross, S. (2019). A First Course in Probability, 10th edition. Pearson.
- ·Kahneman, D. (2011). Thinking, Fast and Slow. Farrar, Straus and Giroux. — Об ошибке игнорирования базовой частоты.
- ·Stat 110 Lectures: https://projects.iq.harvard.edu/stat110
Из этого кластера
24 МИН
How to Solve Integrals: Step-by-Step Methods
20 МИН
Derivatives Explained: From Definition to Application
17 МИН
Limits and Continuity: The Foundation of Calculus
26 МИН
Linear Algebra Basics: Vectors, Matrices, Transformations
14 МИН
Eigenvalues and Eigenvectors, Intuitively
14 МИН
Series and Sequences: Convergence Tests Explained
16 МИН
Differential Equations: First-Order Methods
Об авторе
Tim Sheludyakov пишет библиотеку Stoa.
Автор Tim Sheludyakov · Отредактировано 2026-05-13
Письмо из портика
Раз в неделю — лонгрид, цитата, практика. Без промо. Отписка в один клик.
Нажимая «Подписаться», вы соглашаетесь получать письма Stoa.