Параметрический Bootstrap . Это намного легче осуществить, чем требовательные меры MDL. Хорошая статья принадлежит Wagenmaker и его коллегам:
Wagenmakers, E.-J., Ratcliff R., Gomez, P. & Iverson, GJ (2004). Оценка модели мимикрии с помощью параметрической начальной загрузки . Журнал математической психологии , 48, 28-50.
Аннотация:
Мы представляем общую процедуру выборки для количественной оценки мимикрии модели, определяемой как способность модели учитывать данные, сгенерированные конкурирующей моделью. Эта процедура выборки, называемая параметрическим методом кросс-аппроксимации начальной загрузки (PBCM; ср. Williams (JR Statist. Soc. B 32 (1970) 350; Biometrics 26 (1970) 23)), генерирует распределения различий в пригодности соответствия ожидается под каждой из конкурирующих моделей. В версии PBCM, основанной на данных, модели генерации имеют конкретные значения параметров, полученные путем подгонки рассматриваемых экспериментальных данных. Распределение различий между данными и данными можно сравнить с наблюдаемой разницей в соответствии качества, чтобы дать количественную оценку адекватности модели. В данных неинформированной версии PBCM, генерирующие модели имеют относительно широкий диапазон значений параметров, основанных на предшествующих знаниях. Применение как информированных данных, так и данных неинформированных PBCM иллюстрируется несколькими примерами.
Обновление: Оценка модели мимикрии на простом английском языке. Вы берете одну из двух конкурирующих моделей и случайным образом выбираете набор параметров для этой модели (либо данные, информированные, либо нет). Затем вы производите данные из этой модели с выбранным набором параметров. Затем вы позволяете обеим моделям соответствовать полученным данным и проверяете, какая из двух моделей-кандидатов дает лучшее соответствие. Если обе модели одинаково гибки или сложны, модель, из которой вы произвели данные, должна лучше соответствовать. Однако, если другая модель является более сложной, она могла бы лучше соответствовать, хотя данные были получены из другой модели. Вы повторяете это несколько раз для обеих моделей (т. Е. Пусть обе модели выдают данные и смотрят, какая из двух подходит лучше). Модель, которая «перекрывает» данные, полученные другой моделью, является более сложной.