Модуль VI·Статья III·~4 мин чтения

Критерии согласия

Проверка статистических гипотез

Превратить статью в подкаст

Выберите голоса, формат и длину — AI запишет аудио

Критерии согласия

Критерии согласия проверяют соответствие данных предполагаемому теоретическому распределению. Это важный шаг в статистическом анализе перед применением параметрических методов.

Критерий хи-квадрат Пирсона

Идея: Разбить данные на k ячеек с наблюдёнными частотами Oᵢ и теоретическими Eᵢ = nPᵢ(θ). Статистика: χ² = Σᵢ(Oᵢ - Eᵢ)²/Eᵢ. При H₀ асимптотически: χ² ~ χ²(k-1-r), где r — число оцененных параметров.

Условия применимости: Eᵢ ≥ 5 для каждой ячейки (при нарушении — объединить соседние). Независимые наблюдения. Минимум n ≥ 30-50.

Таблицы сопряжённости: Проверка независимости двух категориальных переменных. χ² = Σᵢⱼ(Oᵢⱼ - Eᵢⱼ)²/Eᵢⱼ, Eᵢⱼ = nᵢ·nⱼ/n. Степени свободы: (r-1)(c-1).

Критерий Колмогорова-Смирнова

Статистика: Dₙ = sup_x |F̂ₙ(x) - F₀(x;θ)|, где F̂ₙ — эмпирическая функция распределения. При H₀ (при известных θ): √n·Dₙ →_d K (распределение Колмогорова).

Важное ограничение: При оценивании параметров из данных (composite hypothesis) критическое значение изменяется — используйте модифицированные таблицы (Лиллиефорс для нормальности).

Двухвыборочный KS: Dₙ,ₘ = sup_x |F̂ₙ(x) - Ĝₘ(x)|. H₀: F = G (две выборки из одного распределения). Непараметрический критерий.

Критерий Шапиро-Уилка на нормальность

Наиболее мощный критерий для проверки нормальности при n ≤ 2000. W = (Σaᵢx_(i))²/Σ(xᵢ-x̄)², где x_(i) — порядковые статистики, aᵢ — коэффициенты из таблиц. При нормальности W близко к 1.

Практические рекомендации: n < 50: Шапиро-Уилк. n = 50-2000: Андерсона-Дарлинга. n > 2000: хватит визуального QQ-plot + χ².

QQ-plot: Квантиль-квантильный график. Если данные из F₀, то квантили выборки против теоретических лежат на прямой. Отклонения от прямой → несоответствие распределению.

Задание: (а) 120 бросков кубика: частоты (18,22,19,21,17,23). χ²-тест на равномерность. (б) Выборка из LN(2,1): χ²-тест на нормальность (8 равновероятных ячеек). Что произойдёт при правосмещённости? (в) 50 наблюдений: симулируйте из t(3) и проверьте на нормальность тестами KS, Шапиро-Уилка и QQ-графиком. Сравните p-значения.

Критерий Андерсона-Дарлинга

Статистика Андерсона-Дарлинга (AD): A² = −n − (1/n)Σᵢ(2i−1)[ln F₀(x₍ᵢ₎) + ln(1−F₀(x₍ₙ₊₁₋ᵢ₎))]. Придаёт бо́льший вес хвостам распределения, чем KS-тест. Особенно чувствителен к отклонениям в хвостах — важно для финансовых данных. Для нормальности: специальные критические значения с поправкой Стефенса (зависят от n).

Тест Шапиро-Уилка: W = (Σaᵢx₍ᵢ₎)²/(Σ(xᵢ-x̄)²), где aᵢ — коэффициенты из ожидаемых нормальных порядковых статистик. W ∈ (0,1], W = 1 при нормальных данных. Наиболее мощный для малых выборок (n ≤ 50). При n > 5000: любое реальное распределение незначимо отличается от нормального.

Проверка симметрии и тяжёлых хвостов

Коэффициент асимметрии: g₁ = m₃/m₂^{3/2} (стандартизированный 3-й момент). Для нормального: g₁ = 0. Эксцесс (куртозис): g₂ = m₄/m₂² − 3. Нормальный: g₂ = 0. Тест Д'Агостино-Пирсона: объединяет g₁ и g₂ в χ²-статистику с 2 степенями свободы. Нормальные: g₁=0 и g₂=0. Логнормальные имеют g₁>0, g₂>0 — правосмещённые с тяжёлыми хвостами.

Диаграмма квантиль-квантиль (PP-plot vs QQ-plot): PP-plot: эмпирические vs теоретические вероятности — чувствителен к центру. QQ-plot: эмпирические vs теоретические квантили — чувствителен к хвостам. Для финансов: QQ-plot выявляет тяжёлые хвосты (точки выше прямой в хвостах).

Тесты согласия для дискретных распределений

Проверка Poisson: объединить хвост (k ≥ K) в одну ячейку. Число параметров r = 1 (λ_hat = x̄). df = K − 1 − r. Проверка биномиального: аналогично с r = 1 (p̂ = x̄/n). Для отрицательного биномиального: r = 2 (n̂, p̂). Мощность χ²-теста против «переполненности» (overdispersion) мала — специальные тесты (Кокрана, Андерсона-Дарлинга для дискретных).

Проверка на избыточную дисперсию (overdispersion)

В реальных счётных данных Poisson-модель часто не подходит: Var[Y] > E[Y] (overdispersion). Тест Дина: статистика Z = (Σ(Yᵢ−λ̂)²−Σλ̂ᵢ)/√(2Σλ̂ᵢ²) → N(0,1). Альтернативы Poisson: Отрицательно-биномиальное (NB): Var = μ + μ²/r. Нулевая инфляция (ZIP): смесь Poisson и точечной массы в 0. Подбирается через LRT или AIC.

Тесты согласия в байесовской статистике

В байесовской парадигме «критерии согласия» — апостериорные предсказательные p-значения (PPP): p_ppc = P(T(X_rep) ≥ T(X_obs) | X_obs), где X_rep ~ P(X|θ)·P(θ|X_obs). PPP ≈ 0.5 означает хорошее соответствие. Критика: PPP консервативны — завышают p-значения (двойное использование данных для подбора и тестирования).

Информационные критерии и выбор модели

AIC (Акаике): AIC = −2ℓ(θ̂) + 2k. Выбрать модель с min AIC. Оценивает ожидаемый KL-дивергенции между истинным и подобранным распределением. BIC (Байесовский): BIC = −2ℓ(θ̂) + k·ln(n). Сильнее штрафует за сложность при больших n → выбирает более простые модели. Для вложенных моделей: BIC-разница > 10 — сильные свидетельства в пользу более простой. Тест отношения правдоподобий: Λ = 2(ℓ₁−ℓ₀) ~ χ²(k₁−k₀) — вложенные модели.

Численный пример: χ²-тест согласия и критерий AIC

Задача: Бросаем кубик n=60 раз. Наблюдаемые частоты O={8,10,12,11,9,10}. Проверить H₀: кубик честный; выбрать лучшую из двух моделей по AIC.

Шаг 1: Ожидаемые частоты при H₀ (равномерное): Eᵢ=60/6=10 для каждой грани.

Шаг 2: χ²=Σ(Oᵢ−Eᵢ)²/Eᵢ=(8−10)²/10+(10−10)²/10+(12−10)²/10+(11−10)²/10+(9−10)²/10+(10−10)²/10 = 4/10+0+4/10+1/10+1/10+0 = 1.0.

Шаг 3: df=k−1=5. Критическое χ²(0.05;5)=11.07. Поскольку 1.0<11.07, H₀ не отвергается. p-значение≈0.96.

Шаг 4: Модель M₁ (равномерная, 0 параметров): log-likelihood = 60·ln(1/6)≈−107.4; AIC=2·107.4+2·0=214.8. Модель M₂ (свободные вероятности, 5 параметров): AIC=2·106.9+2·5=223.8. ΔAIC=9>6 → M₁ предпочтительна — бритва Оккама подтверждается.

§ Акт · что дальше