В этом случае вы можете рассмотреть ABC- аппроксимацию вероятности (и, следовательно, MLE ) при следующем предположении / ограничении:
Успенская. Исходный размер выборки известен.n
Это не дикое предположение, учитывая, что качество с точки зрения конвергенции оценщиков частоты часто зависит от размера выборки, поэтому невозможно получить сколь угодно хорошие оценки, не зная исходного размера выборки.
Идея состоит в том, чтобы сгенерировать выборку из апостериорного распределения и, чтобы получить аппроксимацию MLE , вы можете использовать метод выборки важности, как в [1], или рассмотреть униформу до θ с поддержкой подходящего установить как в [2] .θθ
Я собираюсь описать метод в [2]. Прежде всего, позвольте мне описать сэмплер ABC.
ABC Sampler
Пусть - модель, генерирующая выборку, где θ ∈ Θ - параметр (подлежащий оценке), T - статистика (функция выборки), а T 0 - наблюдаемая статистика в жаргоне ABC. это называется суммарной статистикой , ρ - метрика, π ( θ ) - предварительное распределение по θ, а ϵ > 0 - допуск. Затем ABC-отбраковочный пробоотборник может быть реализован следующим образом.f(⋅|θ)θ∈ΘTT0ρπ(θ)θϵ>0
- Образец из π ( ⋅ ) .θ∗π(⋅)
- Сгенерируйте образец размера n из модели f ( ⋅ | θ ∗ ) .xnf(⋅|θ∗)
- Вычислить .T∗=T(x)
- Если , примите θ ∗ как моделирование от апостериорного значения θ .ρ(T∗,T0)<ϵθ∗θ
Этот алгоритм генерирует приблизительную выборку из апостериорного распределения при T ( x ) = T 0 . Следовательно, лучший сценарий - когда статистика T достаточна, но можно использовать другую статистику. Для более подробного описания этого см. Эту статью .θT(x)=T0T
Теперь, в общей структуре, если кто-то использует унифицированный априор, который содержит MLE в своей поддержке, то максимальный апостериорный (MAP) совпадает с оценщиком максимального правдоподобия (MLE). Поэтому, если вы рассмотрите подходящую униформу априора в ABC Sampler, то вы можете сгенерировать приблизительную выборку апостериорного распределения, MAP которого совпадает с MLE. Оставшийся шаг состоит в оценке этого режима. Эта проблема обсуждалась в CV, например, в «Вычислительно-эффективной оценке многомерного режима» .
Игрушечный пример
Пусть быть выборка из N ( М , 1 ) и предположим , что только информация , полученная от этого образца ˉ х = 1(x1,...,xn)N(μ,1). Пустьρ- евклидова метрика вRиϵ=0.001. Следующий код R показывает, как получить приблизительный MLE, используя методы, описанные выше, с использованием смоделированной выборки сn=100иμ=0, выборкой апостериорного распределения размера1000, унифицированного априора дляμна(-0,3,0,3)и оценщик плотности ядра для оценки режима задней выборки (MAP = MLE).x¯=1n∑nj=1xjρRϵ=0.001n=100μ=01000μ(−0.3,0.3)
rm(list=ls())
# Simulated data
set.seed(1)
x = rnorm(100)
# Observed statistic
T0=mean(x)
# ABC Sampler using a uniform prior
N=1000
eps = 0.001
ABCsamp = rep(0,N)
i=1
while(i<N+1){
u = runif(1,-0.3,0.3)
t.samp = rnorm(100,u,1)
Ts = mean(t.samp)
if(abs(Ts-T0)<eps){
ABCsamp[i]=u
i=i+1
print(i)
}
}
# Approximation of the MLE
kd = density(ABCsamp)
kd$x[which(kd$y==max(kd$y))]
Как вы можете видеть, используя небольшой допуск, мы получаем очень хорошее приближение MLE (которое в этом тривиальном примере может быть вычислено из статистики при условии, что этого достаточно). Важно отметить, что выбор сводной статистики имеет решающее значение. Квантили обычно являются хорошим выбором для сводной статистики, но не все варианты дают хорошее приближение. Может случиться так, что сводная статистика не очень информативна, и тогда качество аппроксимации может быть плохим, что хорошо известно в сообществе ABC.
Обновление: аналогичный подход был недавно опубликован в Fan et al. (2012) . Смотрите эту запись для обсуждения на бумаге.