Вопросы с тегом «bayesian»

Байесовский вывод - это метод статистического вывода, основанный на обработке параметров модели как случайных величин и применении теоремы Байеса для вывода субъективных вероятностных утверждений о параметрах или гипотезах, обусловленных наблюдаемым набором данных.

2
Какая связь стоит за Jeffreys Priors и преобразованием, стабилизирующим дисперсию?
Я читал о «Джеффри до» в википедии: « Джеффри до» и видел, что после каждого примера описывается, как преобразование, стабилизирующее дисперсию, превращает «Джеффриса» в униформу. Например, для случая Бернулли говорится, что для монеты, которая является головой с вероятностью γ∈[0,1]γ∈[0,1]\gamma \in [0,1] , модель испытания Бернулли дает то, что для Джефриса …

2
Пример для априора, который в отличие от Джеффриса приводит к апостериорному, который не является инвариантным
Я публикую «ответ» на вопрос, который я задал здесь две недели назад: почему полезен Джефрис? Это действительно был вопрос (и я тоже не имел права публиковать комментарии в то время), поэтому я надеюсь, что это нормально: В приведенной выше ссылке обсуждается, что интересная особенность априорной теории Джеффриса состоит в том, …

1
Вопросы о принципе правдоподобия
В настоящее время я пытаюсь понять принцип правдоподобия и, честно говоря, не понимаю его вообще. Итак, я напишу все свои вопросы в виде списка, даже если это могут быть довольно простые вопросы. Что именно означает фраза «вся информация» в контексте этого принципа? (как и вся информация в образце содержится в …

4
При каких условиях совпадают байесовские и частые точечные оценки?
С фиксированным априором оценки ML (частота - максимальная вероятность) и MAP (байесовская апостериорная) совпадают. В целом, однако, я говорю о точечных оценках, полученных как оптимизаторы некоторой функции потерь. Т.е. (Bayesian) х (x^(.)=argminE(L(X−x^(y))|y) (Bayesian) x^(.)=argminE(L(X−x^(y))|y) (Bayesian) \hat x(\,. ) = \text{argmin} \; \mathbb{E} \left( L(X-\hat x(y)) \; | \; y \right) …


2
Частота и приоры
Робби Маккиллиам говорит в комментарии к этому сообщению: Следует отметить, что, с точки зрения частых, нет никаких причин, по которым вы не можете включить в модель предыдущие знания. В этом смысле представление «частых» проще: у вас есть только модель и некоторые данные. Нет необходимости отделять предшествующую информацию от модели Кроме …

1
Входные параметры для использования скрытого распределения Дирихле
При использовании тематического моделирования (скрытое распределение Дирихле) количество тем является входным параметром, который необходимо указать пользователю. Мне кажется, что мы также должны предоставить набор кандидатских тем, по которым процесс Dirichlet должен сэмплировать? Правильно ли мое понимание? На практике, как настроить этот набор кандидатов?

2
Статистический ландшафт
Кто-нибудь написал краткий обзор различных подходов к статистике? В первом приближении у вас есть частые и байесовские статистические данные. Но когда вы смотрите ближе, у вас также есть другие подходы, такие как вероятностный и эмпирический байесовский. И тогда у вас есть подразделения внутри групп, такие как субъективные байесовские объективные байесовские …

2
Непараметрический байесовский анализ в R
Я ищу хороший учебник по кластеризации данных при Rиспользовании иерархического процесса Дирихле (HDP) (один из последних и популярных непараметрических байесовских методов). Существует DPpackage(ИМХО, самый полный из всех доступных) Rдля непараметрического байесовского анализа. Но я не могу понять примеры, приведенные в R Newsсправочном руководстве или в пакете, достаточно хорошо, чтобы кодировать …

12
Лучшие книги для введения в статистический анализ данных?
Locked . Этот вопрос и его ответы заблокированы, потому что вопрос не по теме, но имеет историческое значение. В настоящее время он не принимает новые ответы или взаимодействия. Я купил эту книгу: Как измерить что-либо: найти значение нематериальных активов в бизнесе и Head First Анализ данных: Учебное пособие для больших …

2
Может ли кто-нибудь объяснить мне орехи на английском языке?
Мое понимание алгоритма следующее: Пробоотборник без разворота (NUTS) - это метод Гамильтона Монте-Карло. Это означает, что это не метод цепей Маркова, и, таким образом, этот алгоритм избегает части случайного блуждания, которая часто считается неэффективной и медленно сходится. Вместо случайного блуждания NUTS делает прыжки длиной x. Каждый прыжок удваивается, поскольку алгоритм …

1
Выбор между неинформативными бета-приорами
Я ищу неинформативные приоры для бета-дистрибуции для работы с биномиальным процессом (Hit / Miss). Сначала я подумал об использовании которые генерируют равномерный PDF, или Джеффри до α = 0,5 , β = 0,5 . Но я на самом деле ищу априоры, которые оказывают минимальное влияние на последующие результаты, а затем …

3
Байесовское обновление с новыми данными
Как мы можем вычислить апостериор с предшествующим N ~ (a, b) после наблюдения n точек данных? Я предполагаю, что мы должны вычислить среднее значение выборки и дисперсию точек данных и выполнить какое-то вычисление, которое объединяет апостериор с предыдущим, но я не совсем уверен, как выглядит формула комбинации.

4
Как байесовская статистика справляется с отсутствием приоров?
Этот вопрос был вдохновлен двумя недавними взаимодействиями, которые у меня были: одно здесь, в резюме , другое на economics.se. Там, я отправил ответ на известный «Конверт парадокса» (заметьте, не как на «правильный ответ» , но в качестве ответа , вытекающих из конкретных предположений о структуре ситуации). Через некоторое время пользователь …

2
Что может быть примером действительно простой модели с невероятной вероятностью?
Приближенное байесовское вычисление - это действительно классный метод для подгонки практически любой стохастической модели, предназначенный для моделей, в которых вероятность трудно поддается оценке (скажем, вы можете выбрать образец из модели, если вы исправите параметры, но вы не можете численно, алгоритмически или аналитически рассчитать вероятность). При ознакомлении аудитории с приблизительными байесовскими …

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.