Модуль II·Статья III·~4 мин чтения
Многомерные распределения и копулы
Случайные величины и распределения
Превратить статью в подкаст
Выберите голоса, формат и длину — AI запишет аудио
Многомерные распределения и копулы
Многомерные распределения описывают совместное поведение нескольких случайных величин. Копулы — мощный инструмент для моделирования зависимостей между переменными независимо от их маргинальных распределений.
Двумерное нормальное распределение
Совместная плотность: (X,Y) ~ N₂(μ,Σ). Σ = [[σ₁², ρσ₁σ₂],[ρσ₁σ₂, σ₂²]]. Параметр корреляции ρ = Cov(X,Y)/(σ₁σ₂). Условные: Y|X=x ~ N(μ₂+ρσ₂/σ₁(x-μ₁), σ₂²(1-ρ²)).
Корреляция ≠ зависимость: При ρ=0: X и Y некоррелированы, но не обязательно независимы (для нормальных — эквивалентно!).
Теорема Склара и копулы
Теорема Склара (1959): Для совместного CDF H(x,y) = C(F₁(x), F₂(y)), где F₁, F₂ — маргинальные CDFs, C: [0,1]² → [0,1] — копула. При непрерывных маргиналях: C единственна.
Примеры копул:
- Гауссова: C_Gauss(u,v) = Φ₂(Φ⁻¹(u), Φ⁻¹(v); ρ)
- Клейтоновская: C_Clay(u,v) = (u⁻ᵅ + v⁻ᵅ - 1)^{-1/α}
- Гумбелевская: хвостовая зависимость верхних хвостов
Хвостовая зависимость: λ_U = lim_{u→1} P(X>F₁⁻¹(u)|Y>F₂⁻¹(u)) — вероятность одновременных экстремальных событий. Гауссова копула: λ_U = 0 при |ρ|<1. Гумбелевская: λ_U = 2 - 2^{1/α} > 0.
Задание: (а) Для двумерного нормального (μ=(0,0), σ₁=σ₂=1, ρ=0.7): вычислите P(X>1, Y>1). (б) Моделируйте Монте-Карло: из Клейтоновской копулы с α=2 и маргиналями Exp(1) → вычислите P(X>2, Y>2) и P(X>2). Проверьте: хвостовая зависимость.
Маргинальные и условные распределения
Для вектора (X,Y) с совместной плотностью f(x,y) маргинальная плотность X: f_X(x) = ∫ f(x,y)dy. Маргинальное распределение «забывает» о второй переменной. Условная плотность Y при X=x: f_{Y|X}(y|x) = f(x,y)/f_X(x). Формула полной вероятности для плотностей: f_Y(y) = ∫ f_{Y|X}(y|x)f_X(x)dx.
Для двумерного нормального: X|Y=y ~ N(μ₁ + ρ(σ₁/σ₂)(y−μ₂), σ₁²(1−ρ²)). Условное математическое ожидание E[X|Y=y] — линейная функция y, это основа линейной регрессии! Условная дисперсия Var[X|Y] = σ₁²(1−ρ²) не зависит от y.
Многомерное нормальное распределение
X ~ Nₖ(μ, Σ): X = (X₁,...,Xₖ)ᵀ, μ ∈ ℝᵏ — вектор средних, Σ — ковариационная матрица (симметричная, положительно определённая). Плотность: f(x) = (2π)^{−k/2}|Σ|^{−1/2}·exp(−(x−μ)ᵀΣ⁻¹(x−μ)/2).
Ключевые свойства: любая линейная комбинация компонент — одномерная нормальная. Некоррелированность (Σ диагональна) ⟺ независимость (только для нормальных!). Конечное пересечение квадрантов вычисляется через функцию Φₖ (многомерная нормальная CDF).
Зависимость, корреляция и меры связи
Корреляция Пирсона ρ измеряет лишь линейную зависимость. Ранговые корреляции более устойчивы к выбросам. Корреляция Спирмена ρₛ = cor(rank(X), rank(Y)) — линейная корреляция рангов. Корреляция Кендалла τ = (конкордантные − дискордантные пары)/C(n,2).
Эти меры инвариантны к монотонным преобразованиям, что делает их естественными для копульного моделирования. Для двумерного нормального: ρ_Spearman = (6/π)arcsin(ρ/2), τ = (2/π)arcsin(ρ).
Роль копул в финансовом кризисе 2008 года
Гауссова копула была широко использована для моделирования зависимости дефолтов в ипотечных ценных бумагах (CDO). Её критический изъян — нулевая хвостовая зависимость: при небольших корреляциях одновременные дефолты в модели были крайне маловероятны, хотя в реальности крах рынка недвижимости вызвал лавинообразные дефолты по всей стране. Модели с «правильными» копулами (Клейтоновской или t-копулой с ненулевой нижней хвостовой зависимостью) предсказывали бы значительно более высокий риск. Этот эпизод стал поучительным примером того, как математическая модель, технически корректная в «нормальных» условиях, может давать катастрофически неверные оценки при хвостовых событиях.
Условное распределение и совместные моменты
Для пары (X,Y) с совместной плотностью f(x,y) условное распределение Y при X=x: f_{Y|X}(y|x) = f(x,y)/f_X(x). Условное математическое ожидание E[Y|X=x] = ∫ y·f_{Y|X}(y|x)dy — функция x. Закон полного ожидания: E[Y] = E[E[Y|X]] = ∫ E[Y|X=x]·f_X(x)dx.
Ковариационная матрица для вектора X=(X₁,...,Xₙ): Σᵢⱼ = Cov(Xᵢ,Xⱼ) = E[XᵢXⱼ] − E[Xᵢ]E[Xⱼ]. Положительно полуопределённая. Для линейных преобразований Y=AX: Cov(Y) = A·Cov(X)·Aᵀ. Декорреляция: если Σ = PΛPᵀ (собственное разложение), то Y = P⁻¹X имеет диагональную ковариацию — «главные компоненты» (PCA).
Линейный предсказатель: Оптимальный линейный предиктор Y через X: Ŷ = E[Y] + Cov(Y,X)/Var[X]·(X − E[X]). Остаток Y − Ŷ некоррелирован с X. Для двумерного нормального совпадает с условным E[Y|X] — в нормальном случае нелинейное условное ожидание совпадает с линейным.
Симуляция многомерных распределений
Метод Холецкого: Для генерации X ~ Nₖ(μ,Σ): найдём Холецкого разложение Σ = LLᵀ. Генерируем Z = (Z₁,...,Zₖ)ᵀ i.i.d. ~ N(0,1). Тогда X = μ + LZ ~ Nₖ(μ,Σ). Метод работает для любой положительно определённой Σ.
Генерация из копул: (1) Генерируем (U₁,...,Uₖ) из копулы C. (2) Применяем обратные маргинальные CDF: Xᵢ = Fᵢ⁻¹(Uᵢ). Для Гауссовой копулы: (1) генерируем Z ~ Nₖ(0,R), где R — матрица корреляций; (2) Uᵢ = Φ(Zᵢ); (3) Xᵢ = Fᵢ⁻¹(Uᵢ). Клейтоновская копула: алгоритм через условное распределение (Gamma mixing representation).
Тест на многомерную нормальность: Расстояния Махаланобиса dᵢ² = (xᵢ−x̄)ᵀΣ⁻¹(xᵢ−x̄) должны быть приближённо хи-квадрат распределены с k степенями свободы. QQ-график dᵢ² против квантилей χ²(k) — стандартная диагностика.
Численный пример: условное распределение в двумерной нормальной
Задача: X₁N(0,1), X₂N(0,1), ρ=Corr(X₁,X₂)=0.7. Найти E[X₂|X₁=2] и P(X₂>2|X₁=2).
Шаг 1: Условное среднее: E[X₂|X₁=x₁] = μ₂ + ρ·(σ₂/σ₁)·(x₁−μ₁) = 0 + 0.7·1·(2−0) = 1.4.
Шаг 2: Условная дисперсия: Var[X₂|X₁] = σ₂²·(1−ρ²) = 1·(1−0.49) = 0.51, σ ≈ 0.714.
Шаг 3: P(X₂>2|X₁=2) = P(Z > (2−1.4)/0.714) = P(Z > 0.840) = 1−Φ(0.840) ≈ 1−0.7995 = 0.200.
Шаг 4: Без обусловливания P(X₂>2) = P(Z>2) ≈ 0.023. Знание X₁=2 подняло вероятность с 2.3% до 20% — иллюстрация мощи совместного нормального распределения.
§ Акт · что дальше