Является ли вопрос любопытства, т.е. вы не удовлетворены моим ответом здесь ? Если не...
Дальнейшее исследование этого сложного вопроса показало, что существует широко распространенное эмпирическое правило, согласно которому две модели неразличимы по критерию если различие . То же самое вы действительно прочтете в статье в Википедии об (обратите внимание, что ссылка кликабельна!). Просто для тех, кто не нажимает на ссылки:| A I C 1 - A I C 2 | < 2 A I CAIC|AIC1−AIC2|<2AIC
A I C A I CAIC оценивает относительную поддержку модели. Чтобы применить это на практике, мы начнем с набора моделей-кандидатов, а затем найдем соответствующие значения моделей . Затем определите минимальное значение . Выбор модели может быть сделан следующим образом.AICAIC
Как грубое практическое правило, модели, имеющие пределах минимума, имеют существенную поддержку и должны принимать во внимание выводы. Модели с пределах примерно от минимума имеют значительно меньшую поддержку, в то время как модели с выше минимума либо практически не имеют поддержки и могут быть исключены из дальнейшего рассмотрения, либо, по крайней мере, не могут объяснить некоторые существенные структурные различия в данные.AIC1–2AIC4–7AIC>10
Более общий подход заключается в следующем ...
Обозначим значения моделей-кандидатов через , . Пусть обозначает минимум этих значений. Тогда можно интерпретировать как относительную вероятность того, что модель минимизирует (ожидаемую оценочную) потерю информации.AICAIC1AIC2,AIC3,…,AICRAICmine(AICmin−AICi)/2i
В качестве примера предположим, что в наборе кандидатов было три модели со значениями , и . Тогда вторая модель раз вероятнее, чем первая модель, чтобы минимизировать потери информации, а третья модель раза так же вероятно, как и первая модель, чтобы минимизировать потери информации. В этом случае мы могли бы опустить третью модель из дальнейшего рассмотрения и взять средневзвешенное значение первых двух моделей с весами и соответственно. Статистический вывод будет тогда основан на взвешенной мультимодели.AIC100102110e(100−102)/2=0.368e(100−110)/2=0.00710.368
Хорошее объяснение и полезные предложения, на мой взгляд. Только не бойтесь читать то, что кликабельно!
Кроме того , обратите внимание еще раз, менее предпочтителен для крупномасштабных наборов данных. В дополнение к может оказаться полезным применить исправленную смещения версию критерия (вы можете использовать этот код или использовать формулу , где количество расчетных параметров). Эмпирическое правило будет таким же, хотя. AICBICAICAICcR
AICc=AIC+2p(p+1)n−p−1p