Я согласен с превосходным ответом Сианя , указавшего, что не существует ни одного априора, который был бы «неинформативным» в смысле несения информации. Чтобы расширить эту тему, я хотел бы отметить, что одной из альтернатив является проведение байесовского анализа в рамках неточной вероятности (см., Например , Walley 1991 , Walley 2000 ). В этих рамках предшествующее убеждение представлено набором вероятностных распределений.и это приводит к соответствующему набору апостериорных распределений. Может показаться, что это не очень полезно, но на самом деле это довольно удивительно. Даже с очень широким набором предшествующих распределений (где определенные моменты могут варьироваться по всем возможным значениям), вы все равно часто получаете заднюю сходимость к одному заднему как .n→∞
Эта аналитическая структура была аксиоматизирована Уолли как его собственная особая форма вероятностного анализа, но по существу эквивалентна надежному байесовскому анализу с использованием набора априорных значений, что дает соответствующий набор исходных данных. Во многих моделях можно установить «неинформативный» набор априоров, который позволяет некоторым моментам (например, предыдущему среднему значению) изменяться во всем возможном диапазоне значений, и это тем не менее дает ценные апостериорные результаты, где задние моменты ограничены более плотно. Эта форма анализа, возможно, лучше претендует на то, чтобы называться «неинформативной», по крайней мере, в отношении моментов, которые могут изменяться во всем допустимом диапазоне.
Простой пример - модель Бернулли: предположим, что мы наблюдаем данные где - неизвестный интересующий параметр. Обычно мы использовали бы бета-плотность в качестве априора (априор Джеффри и эталонный априор имеют эту форму). Мы можем указать эту форму априорной плотности в терминах априорного среднего и другого параметра как:X1,...,Xn|θ∼IID Bern(θ)θμκ>1
π0(θ|μ,κ)=Beta(θ|μ,κ)=Beta(θ∣∣α=μ(κ−1),β=(1−μ)(κ−1)).
(Эта форма дает предыдущие моменты и .) Теперь в неточной модели мы могли бы задайте значение предварительного, чтобы оно состояло из набора всех этих предыдущих распределений по всем возможным ожидаемым значениям , но с другим фиксированным параметром для контроля точности в диапазоне средних значений. Например, мы могли бы использовать набор приоров:E(θ)=μV(θ)=μ(1−μ)/κ
P0≡{Beta(μ,κ)∣∣0⩽μ⩽1}.
Предположим, мы наблюдаем положительных показателей в данных. Затем, используя правило обновления для модели Бернулли-бета, соответствующий апостериорный набор:s=∑ni=1xi
Px={Beta(s+μ(κ−1)n+κ−1,n+κ)∣∣0⩽μ⩽1}.
Диапазон возможных значений для последующего ожидания:
sn+κ−1⩽E(θ|x)⩽s+κ−1n+κ−1.
Здесь важно то, что, хотя мы и начали с модели, которая была «неинформативной» в отношении ожидаемого значения параметра (априорное ожидание варьировалось по всем возможным значениям), тем не менее, мы в конечном итоге получаем последующие выводы, которые являются информативными в отношении к последнему ожиданию параметра (теперь они варьируются в более узком наборе значений). Как этот диапазон значений сжимается до одной точки, которая является истинным значением .n→∞θ