Что является / является неявным приоритетом в статистике частых посещений?


20

Я слышал, что Джейнс утверждает, что часто работающие работают с «неявным априором».

Каковы или являются эти неявные приоры? Означает ли это, что модели для частых - все это особые случаи байесовских моделей, которые ждут своего появления?


Неявный априор - это вырожденное распределение, которое помещает всю массу вероятности в , параметр, который байесовский частолюбитель пытается оценить. θ
Дилип Сарватэ

3
Насколько я знаю, не существует частой или байесовской модели, есть только модели и разные подходы к ним.
Андрей Колядин

3
@DilipSarwate: я не согласен с этим утверждением. Использование массы Дирака как предшествующего не вызывает частых процедур. И байесовская парадигма не допускает априорные значения с неизвестными параметрами, за исключением случаев установки другого априора по этим параметрам.
Сиань

2
Всегда есть предварительное, несмотря ни на что. К сожалению, все статистические процедуры требуют специальной отправной точки, что делает их очень произвольными. Хорошая вещь дана достаточно данных и правильной методологии, вы получаете близко к месту назначения. Плохо то, как далеко вы в конечном итоге от места назначения, зависит от того, где вы начинаете и сколько данных у вас под рукой.
Кагдас Озгенц

2
@Cagdas Ozgenc: Нет, всегда есть предположения , но они не должны принимать форму предыдущих рассылок.
kjetil b halvorsen

Ответы:


17

В теории принятия частых решений существуют полные результаты класса, которые характеризуют допустимые процедуры как байесовские процедуры или как пределы байесовских процедур. Например, необходимое и достаточное условие Штейна (Stein. 1955; Farrell, 1968b) гласит, что при следующих допущениях

  1. плотность выборки непрерывна в и строго положительна на ; иθ Θf(x|θ)θΘ
  2. функция потерь строго выпуклая, непрерывная и, если компактно,LEΘ
    limδ+infθEL(θ,δ)=+.

оценка допустима тогда и только тогда, когда существуетδ

  • последовательность возрастающих компактов, такая что ,(Fn)Θ=nFn
  • последовательность конечных мер с поддержкой , и(πn)Fn
  • последовательность байесовских оценок, связанных с такая, что(δn)πn

    1. существует компакт такой чтоE0Θinfnπn(E0)1
    2. если компактно,EΘsupnπn(E)<+
    3. limnr(πn,δ)r(πn)=0 и
    4. limnR(θ,δn)=R(θ,δ) .

[воспроизведено из моей книги « Байесовский выбор» , теорема 8.3.0, с.407]

В этом ограниченном смысле частое свойство допустимости наделено байесовским фоном, следовательно, ассоциируется неявный априор (или его последовательность) с каждым допустимым оценщиком.

Примечание: 25 ноября Чарльз Стейн скончался в Пало-Альто, штат Калифорния. Ему было 96 лет.

Существует аналогичный (если математически вовлеченный) результат для инвариантной или эквивариантной оценки, а именно, что лучшим эквивариантным оценщиком является оценка Байеса для каждой транзитивной группы, действующей на статистической модели, связанной с правильной индуцированной мерой Хаара, , индуцированной на этой группой и соответствующей инвариантной потерей. См. Pitman (1939), Stein (1964) или Zidek (1969) для получения подробной информации. Это, скорее всего, то, что имел в виду Джейнс , когда он решительно спорил о разрешении парадоксов маргинализации с помощью принципов инвариантности .πΘ

Кроме того, как подробно описано в ответе civilstat , другое частое понятие оптимальности, а именно минимаксности, также связано с байесовскими процедурами в том смысле, что минимаксная процедура, минимизирующая максимальную ошибку (в пространстве параметров), часто является процедурой maximin, которая максимизирует минимальную ошибку ( по всем предыдущим распределениям), следовательно, является байесовской или лимитной байесовской процедурой (процедурами).

В .: Есть ли содержательный вынос, который я могу использовать, чтобы передать свою байесовскую интуицию частым моделям?

Во-первых, я бы избегал использования термина «модель частых лиц», поскольку существуют модели выборки (данные представляют собой реализацию для значения параметра )xXf(x|θ)θ и процедуры частых процедур (лучшая объективная оценка, минимум доверительный интервал отклонений и т. д.)Во-вторых, я не вижу убедительной методологической или теоретической причины для того, чтобы рассматривать методы частых исследований как пограничные или ограничивающие методы Байеса. Обоснование частой процедуре, когда она существует, состоит в удовлетворении некоторого свойства оптимальности в пространстве выборки, то есть при повторении наблюдений. Основное обоснование байесовских процедур должно быть оптимальным [по определенному критерию или функции потерь] с учетом предварительного распределения и одной реализации из модели выборки. Иногда, в результате чего процедура , удовлетворяют некоторое свойство частотного ( заслуживающего доверие региона% является доверительной областью%)9595 , но это случайность в том , что эта оптимальность не переносит все процедуры , связанные с байесовской моделью.


1
Огромное спасибо. Как новичок, есть ли содержательный вынос, который я могу использовать, чтобы передать свою байесовскую интуицию частым моделям? то есть (этот GLM подобен x с y ранее, или этот лассо подобен байесовскому xyz).
Bayesquest

1
Кроме того, не могли бы вы взглянуть на другой мой вопрос здесь: stats.stackexchange.com/questions/247850/… Я знаю, что вы предложили некоторые решения проблемы хрупкости по Байесу ... но я чувствую, что решения не надежны или легко для социолога.
Bayesquest

1
Для первого комментария, вот некоторые примеры того , что я говорю: - нейронные сети и ВОП - stats.stackexchange.com/questions/71782/... - sumsar.net/blog/2015/04/... - [непараметрический байесовским (npB) Точка зрения позволяет интерпретировать леса как образец задних частей деревьев] ( arxiv.org/pdf/1502.02312.pdf )
Bayesquest,

Мы работали над Приближенным байесовским умозаключением со случайными лесами и обнаружили, что изменчивость, обусловленная этим инструментом, была довольно не связана с исходным апостериорным. Конечно, это не означает, что не допускает байесовское толкование, но тем не менее ...
Сиань

12

@ Сиань ответ более полный. Но так как вы также попросили емкую еду на вынос, вот один. (Концепции, которые я упоминаю, не совсем совпадают с приведенными выше настройками допустимости.)

Частые пользователи часто (но не всегда) любят использовать оценки, которые являются «минимаксными»: если я хочу оценить , риск худшего случая моего оценщика должен быть лучше, чем риск худшего случая любого другого оценщика , Оказывается, MLE часто (приблизительно) минимаксны. Смотрите подробности, например, здесь или здесь .θθ^

Чтобы найти минимаксную оценку для задачи, один из способов - на мгновение подумать о байесовском и найти «наименее благоприятный априор» . Это первоисточник, чей байесовский оценщик имеет более высокий средний риск, чем любой другой априорный оценщик Байеса. Если вы можете найти его, то оказывается, что оценка Байеса 'является минимаксной.ππ

В этом смысле вы могли бы вкратце сказать: «Частотник с минимаксным использованием» подобен байесовскому, который выбрал (точечная оценка на основе) наименее благоприятный априор.

Может быть, вы могли бы растянуть это, чтобы сказать: такой часто встречающийся является консервативным байесовским, выбирая не субъективные приоры или даже неинформативные приоры, но (в этом конкретном смысле) наихудшие приоры.

И наконец, как уже говорили другие, сравнивать фрекалистов и байесовцев довольно сложно. Быть частым не обязательно означает, что вы используете определенную оценку. Это просто означает, что вы задаете вопросы о свойствах выборки вашего оценщика, тогда как эти вопросы не являются главным приоритетом Байеса. (Таким образом, любой байесовец, который надеется на хорошие свойства выборки, например, «откалиброванный байесовский» , также является Frequentist.)
Даже если вы определяете Frequentist как тот, чьи оценки всегда имеют оптимальные свойства выборки, таких свойств много, и вы не можете всегда встретить их всех сразу. Поэтому сложно говорить вообще о «всех моделях Frequentist».


4
Я думал, что неявный априор для частого анализа будет неким единообразным априорным.
Майкл Р. Черник

5
Это может быть, иногда. Вы могли бы думать о MLE как о оценке MAP с использованием единого априора. Но MLE - не единственный инструмент, который используют частые пользователи.
Civilstat

Другая связанная с этим концепция: «совпадающие априоры» или «вероятностные совпадающие априоры», определенные априорные значения, рассчитанные для вашего доверительного интервала в приблизительно соответствуют доверительному интервалу в для этого конкретного параметра. Опять же, они могут быть одинаковыми, но не обязательно. Зависит от выбора параметра и от того, насколько хорошо вы хотите, чтобы аппроксимация была. См., Например, utstat.utoronto.ca/reid/research/vaneeden.pdf1α1α
civilstat
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.