Не байесовский прогнозирующий вывод (кроме случая SLR) является относительно недавней областью. Под заголовком «не байесовский» мы можем подразделить подходы на те, которые являются «классическими» частыми по сравнению с теми, которые основаны на «вероятности».
Классическое Предсказание Частых
Как вы знаете, «золотой стандарт» в частоте заключается в достижении номинального охвата при многократной выборке. Например, мы хотим, чтобы 95% доверительная область содержала истинные параметры в 95% выборок из той же популяции. Или мы ожидаем допустить ошибки типа I и II в тесте гипотезы, в среднем равном и β . Наконец, что наиболее уместно в этом вопросе, мы ожидаем, что наш 95% интервал прогнозирования будет содержать следующую точку выборки в 95% случаев.αβ
Теперь у меня, как правило, были проблемы с тем, как классические PI представлены и преподаются на большинстве курсов статистики, потому что подавляющая тенденция состоит в том, чтобы интерпретировать их как байесовские задние интервалы прогнозирования, которых они определенно не имеют. Самое главное, они говорят о разных вероятностях! Байесовские не претендуют на повторную выборку их количеств (в противном случае они были бы частыми лицами). Во-вторых, байесовский ПИ фактически выполняет нечто более похожее по духу на Классический интервал толерантности, чем на Классический интервал прогнозирования.
Для справки: Интервалы толерантности должны быть определены двумя вероятностями: достоверность и охват. Доверие говорит нам, как часто это правильно в повторных выборках. Покрытие говорит нам минимальную меру вероятности интервала при истинном распределении (в отличие от PI, который дает ожидаемую меру вероятности ... опять же при повторной выборке). Это в основном то, что пытается сделать байесовский ИП, но без претензий на повторную выборку.
Итак, основная логика простой линейной регрессии Stats 101 состоит в том, чтобы вывести свойства повторной выборки ПИ в предположении нормальности. Это частый + гауссовский подход, который обычно считается «классическим» и преподается на вступительных классах. Это основано на простоте полученных расчетов ( хороший обзор см. В Википедии ).
Негауссовы распределения вероятностей, как правило, проблематичны, поскольку в них могут отсутствовать основные величины, которые можно аккуратно инвертировать, чтобы получить интервал. Следовательно, не существует «точного» метода для этих распределений, часто потому, что свойства интервала зависят от истинных базовых параметров.
Признавая эту неспособность, возник другой класс предсказания (и логического вывода и оценки) с подходом вероятности.
Вывод на основе вероятности
Подходы, основанные на вероятности, как и многие современные статистические концепции, можно проследить до Рональда Фишера. Основная идея этой школы заключается в том, что, за исключением особых случаев, наши статистические выводы находятся на логически более слабом основании, чем когда мы имеем дело с выводами из нормального распределения (оценки параметров которого ортогональны). ), где мы можем делать точные вероятностные утверждения. С этой точки зрения следует действительно избегать утверждений о вероятности, за исключением точного случая, в противном случае следует высказываться о вероятности и признавать, что человек не знает точную вероятность ошибки (в частом смысле).
Следовательно, мы можем рассматривать вероятность как схожую с байесовской вероятностью, но без требований интегрируемости или возможной путаницы с вероятностью появления. Его интерпретация полностью субъективна ... хотя для вывода по одному параметру часто рекомендуется отношение правдоподобия 0,15.
Тем не менее, не часто можно увидеть статьи, в которых явно указаны «интервалы вероятности». Зачем? Похоже, что это в значительной степени вопрос социологии, так как мы все привыкли к основанным на вероятности заявлениям о доверии. Вместо этого вы часто видите, как автор ссылается на «приблизительный» или «асимптотический» доверительный интервал того-то и того-то. Эти интервалы в основном получены из методов правдоподобия, где мы полагаемся на асимптотическое распределение хи-квадрат отношения правдоподобия почти так же, как мы полагаемся на асимптотическую нормальность среднего значения выборки.
С этим «исправлением» мы можем теперь построить «приблизительные» 95% доверительные регионы с почти такой же логической последовательностью, как байесовские.
От CI до PI в структуре вероятности
Успех и простота вышеупомянутого метода вероятности привели к идеям о том, как распространить его на прогнозирование. Очень хороший обзор статьи по этому вопросу дано здесь (я не буду воспроизводить его отличное покрытие). Это можно проследить до Дэвида Хинкли в конце 1970-х (см. JSTOR ), который придумал этот термин. Он применил его к многолетней « проблеме биномиального прогнозирования Пирсона ». Я суммирую основную логику.
YYY фактически является случайным и, следовательно, может быть логически назначен вероятностный коэффициент. Механизм этого для этой конкретной проблемы рассмотрен в ссылках, которые я предоставил.
Основные правила избавления от «неприятных» параметров для получения прогнозирующей вероятности следующие:
- μ , σ его по вероятности.
- Если параметр является случайным (например, другие ненаблюдаемые данные или «случайные эффекты»), то вы интегрируете их (как в байесовском подходе).
Различие между фиксированным и случайным параметром является уникальным для определения вероятности, но имеет связь с моделями со смешанными эффектами, где кажется, что байесовские, частотные и вероятностные структуры сталкиваются.
Надеемся, что это ответило на ваш вопрос о широкой области «небайесовского» предсказания (и вывод на этот счет). Поскольку гиперссылки могут измениться, я также сделаю заглушку для книги «По всей вероятности: статистическое моделирование и умозаключение с использованием правдоподобия», в которой подробно обсуждается современная основа правдоподобия, включая изрядное количество эпистемологических проблем вероятности против байесовских и частых вывод и прогноз.
Ссылки
- Интервалы прогнозирования: непараметрические методы . Wikipedia. Доступ 13.09.2015.
- Бьорнстад, Ян Ф. Прогнозирующая вероятность: обзор. Statist. Sci. 5 (1990), нет. 2, 242-254. DOI: 10,1214 / сс / 1177012175.
http://projecteuclid.org/euclid.ss/1177012175 .
- Дэвид Хинкли Прогнозирующая вероятность . Летопись статистики Vol. 7, No. 4 (Jul., 1979), pp. 718-728 Опубликовано: Институт математической статистики, стабильный URL: http://www.jstor.org/stable/2958920
- Юди Павитан. По всей вероятности: статистическое моделирование и вывод с использованием вероятности. Издательство Оксфордского университета; 1 издание (30 августа 2001 г.). ISBN-10: 0198507658, ISBN-13: 978-0198507659. Особенно главы 5.5-5.9, 10 и 16.