Извините за неясность в моем блоге !
Примечание: я предоставил некоторую предысторию выбора модели Байеса и парадокса Джеффриса-Линдли в этом другом ответе на Кресте.
Парадокс Джеффриса-Линдли связан с выбором байесовской модели в том, что предельное правдоподобие
становится бессмысленным, когда π является σ- конечной мерой (т. е. мерой с бесконечной массой), а не вероятностной мерой. Причина этой трудности заключается в том, что бесконечная масса делает π и c π неразличимыми для любой положительной константы c . В частности, Байесовский фактор не может использоваться и не должен использоваться, когда одна модель наделена «плоским» предшествующим уровнем.
м ( х ) = ∫π( θ ) f( х | θ )д θ
πσπс πс
x ∼ N( 0 , 1 )
x ∼ N( θ , 1 )
В12= опыт{ - n ( x¯N)2/ 2}∫+ ∞- ∞ехр{ - n ( x¯N- θ )2/ 2}π( θ )д θ
πN( 0 , τ2)θτИкс¯NNτnπ(θ)=c
cB12B12=exp{−n(x¯n)2/2}c∫+∞−∞exp{−n(x¯n−θ)2/2}dθ=exp{−n(x¯n)2/2}c2π/n−−−−√
c
Теперь, если ваши приоры информативны (и, следовательно, правильны), нет никаких причин для возникновения парадокса Джеффриса-Линдли. При достаточном количестве наблюдений фактор Байеса будет последовательно выбирать модель, которая генерирует данные. (Или, точнее, модель в наборе моделей, рассматриваемых для выбора модели, которая наиболее близка к «истинной» модели, которая генерировала данные.)