Вопросы с тегом «likelihood»

Учитывая случайную величину которая возникает из параметризованного распределения F (X; θ) , вероятность определяется как вероятность наблюдаемых данных как функция от θ: \ text {L} (θ) = \ text {P} (θ ; х = х)XF(X;θ)θ:L(θ)=P(θ;X=x)

5
Пример, где принцип правдоподобия * действительно * имеет значение?
Существует ли пример, в котором два различных защищаемых теста с пропорциональными правдоподобиями приведут один к заметно различным (и одинаково оправданным) выводам, например, где значения p на порядок величин далеко друг от друга, но мощность альтернатив аналогична? Все примеры, которые я вижу, очень глупы, сравнивая бином с отрицательным биномом, где значение …

2
Если принцип правдоподобия вступает в противоречие с вероятностной вероятностью, тогда отбрасываем ли мы один из них?
В комментарии, недавно размещенном здесь, один комментатор указал на блог Ларри Вассермана, который указывает (без каких-либо источников), что частые выводы противоречат принципу вероятности. Принцип правдоподобия просто говорит о том, что эксперименты, дающие сходные функции правдоподобия, должны давать аналогичные выводы. Две части к этому вопросу: Какие части, вкус или школа частых …

1
Каковы недостатки профиля вероятности?
Рассмотрим вектор параметров , где θ 1 представляет интересующий параметр, а θ 2 является параметром помех.(θ1,θ2)(θ1,θ2)(\theta_1, \theta_2)θ1θ1\theta_1θ2θ2\theta_2 Если вероятность того, построена из данных х , профиль правдоподобия для & thetas 1 определяется как L P ( θ 1 ; х ) = L ( θ 1 , θ 2 ( …

5
Что на практике означает «вероятность определяется только с точностью до мультипликативной константы пропорциональности»?
Я читаю статью, в которой авторы ведут от обсуждения оценки максимального правдоподобия к теореме Байеса, якобы в качестве введения для начинающих. Как пример вероятности, они начинаются с биномиального распределения: p(x|n,θ)=(nx)θx(1−θ)n−xp(x|n,θ)=(nx)θx(1−θ)n−xp(x|n,\theta) = \binom{n}{x}\theta^x(1-\theta)^{n-x} а затем войти обе стороны ℓ(θ|x,n)=xln(θ)+(n−x)ln(1−θ)ℓ(θ|x,n)=xln⁡(θ)+(n−x)ln⁡(1−θ)\ell(\theta|x, n) = x \ln (\theta) + (n-x)\ln (1-\theta) с обоснованием того, что: …

4
Теоретическая мотивация использования логарифмического правдоподобия и правдоподобия
Я пытаюсь понять на более глубоком уровне повсеместность логарифмической вероятности (и, возможно, в более общем смысле логарифмической вероятности) в статистике и теории вероятностей. Логарифмические вероятности проявляются повсеместно: мы обычно работаем с логарифмической вероятностью для анализа (например, для максимизации), информация Фишера определяется в терминах второй производной логарифмической вероятности, энтропия - это …

4
Как байесовская система лучше интерпретируется, когда мы обычно используем неинформативные или субъективные априорные значения?
Часто утверждают, что байесовский каркас имеет большое преимущество в интерпретации (по сравнению с частыми), потому что он вычисляет вероятность параметра с учетом данных - вместо как в Частые рамки. Все идет нормально.p ( x | θ )p(θ|x)p(θ|x)p(\theta|x)p(x|θ)p(x|θ)p(x|\theta) Но все уравнение основано на: p(θ|x)=p(x|θ).p(θ)p(x)p(θ|x)=p(x|θ).p(θ)p(x)p(\theta|x) = {p(x|\theta) . p(\theta) \over p(x)} выглядит …

1
Вопросы о принципе правдоподобия
В настоящее время я пытаюсь понять принцип правдоподобия и, честно говоря, не понимаю его вообще. Итак, я напишу все свои вопросы в виде списка, даже если это могут быть довольно простые вопросы. Что именно означает фраза «вся информация» в контексте этого принципа? (как и вся информация в образце содержится в …

2
Сравнение AIC модели и ее лог-преобразованной версии
Суть моего вопроса заключается в следующем: Пусть Y∈RnY∈RnY \in \mathbb{R}^n быть многомерной нормальной случайной величиной со средним и ковариационной матрицей . Пусть , то есть . Как сравнить AIC модели, подходящей для наблюдаемых реализаций с моделью, подходящей для наблюдаемых реализаций Z ?μμ\muΣΣ\SigmaZ:=log(Y)Z:=log⁡(Y)Z := \log(Y)Zi=log(Yi),i∈{1,…,n}Zi=log⁡(Yi),i∈{1,…,n}Z_i = \log(Y_i), i \in \{1,\ldots,n\}YYYZZZ Мой …

2
Что может быть примером действительно простой модели с невероятной вероятностью?
Приближенное байесовское вычисление - это действительно классный метод для подгонки практически любой стохастической модели, предназначенный для моделей, в которых вероятность трудно поддается оценке (скажем, вы можете выбрать образец из модели, если вы исправите параметры, но вы не можете численно, алгоритмически или аналитически рассчитать вероятность). При ознакомлении аудитории с приблизительными байесовскими …

3
Нахождение MLE для одномерного экспоненциального процесса Хоукса
Одномерный экспоненциальный процесс Хоукса - это саморегулирующийся точечный процесс со скоростью поступления событий: λ(t)=μ+∑ti&lt;tαe−β(t−ti)λ(t)=μ+∑ti&lt;tαe−β(t−ti) \lambda(t) = \mu + \sum\limits_{t_i<t}{\alpha e^{-\beta(t-t_i)}} где - время прибытия события.t1,..tnt1,..tn t_1,..t_n Функция логарифмического правдоподобия −tnμ+αβ∑(e−β(tn−ti)−1)+∑i&lt;jln(μ+αe−β(tj−ti))−tnμ+αβ∑(e−β(tn−ti)−1)+∑i&lt;jln⁡(μ+αe−β(tj−ti)) - t_n \mu + \frac{\alpha}{\beta} \sum{( e^{-\beta(t_n-t_i)}-1 )} + \sum\limits_{i<j}{\ln(\mu+\alpha e^{-\beta(t_j-t_i)})} который можно вычислить рекурсивно: −tnμ+αβ∑(e−β(tn−ti)−1)+∑ln(μ+αR(i))−tnμ+αβ∑(e−β(tn−ti)−1)+∑ln⁡(μ+αR(i)) - t_n \mu + …

2
Являемся ли мы частыми лицами на самом деле просто неявными / невольными байесовцами?
Для данной проблемы вывода мы знаем, что байесовский подход обычно отличается как по форме, так и по результатам феечистского подхода. Частые участники (обычно это я) часто указывают на то, что их методы не требуют предварительного и, следовательно, в большей степени «основаны на данных», чем «обусловлены суждениями». Конечно, байесовские указатели могут …

2
Каково частое восприятие истории вольтметра?
Каково частое восприятие истории вольтметра и ее вариаций? Идея заключается в том, что статистический анализ, который обращается к гипотетическим событиям, должен быть пересмотрен, если позднее станет известно, что эти гипотетические события не могли произойти, как предполагалось. Версия истории в Википедии приводится ниже. Инженер рисует случайную выборку электронных ламп и измеряет …

1
Нужно ли придерживаться принципа вероятности быть байесовским?
Этот вопрос вытекает из вопроса: когда (если вообще когда-либо) частотный подход существенно лучше, чем байесовский? Как я уже писал в своем решении этого вопроса, по моему мнению, если вы являетесь частым участником, вам не нужно верить / придерживаться принципа вероятности, так как часто методы, применяемые частыми пользователями, будут его нарушать. …

1
Оценка параметров LogLikelihood для линейного фильтра Калмана Гаусса
Я написал некоторый код, который может выполнять фильтрацию Калмана (используя несколько различных фильтров типа Калмана [Information Filter et al.]) Для линейного анализа пространства состояний Гаусса для n-мерного вектора состояния. Фильтры работают отлично, и я получаю хороший вывод. Тем не менее, оценка параметров с помощью логарифмической вероятности сбивает меня с толку. …

2
AR (1) процесс с гетероскедастическими ошибками измерения
1. Проблема У меня есть некоторые измерения переменного ytyty_t , где t=1,2,..,nt=1,2,..,Nt=1,2,..,n , для которого у меня есть распределение fyt(yt)fyt(yt)f_{y_t}(y_t) полученное с помощью MCMC, которое для простоты я предполагаю, что это гауссиан среднего μtμt\mu_t и дисперсии σ2tσt2\sigma_t^2 . У меня есть физическая модель для этих наблюдений, скажем, g(t)g(t)g(t) , но …

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.