Вопросы с тегом «maximum-likelihood»

метод оценки параметров статистической модели путем выбора значения параметра, оптимизирующего вероятность наблюдения данной выборки.

6
Есть ли пример, где MLE дает необъективную оценку среднего значения?
Можете ли вы привести пример оценки MLE среднего значения, которое смещено? Я не ищу пример, который нарушает оценки MLE в целом, нарушая условия регулярности. Все примеры, которые я вижу в Интернете, относятся к расхождению, и я не могу найти ничего, связанного со средним значением. РЕДАКТИРОВАТЬ @MichaelHardy предоставил пример, в котором …

1
моделирование случайных выборок с заданным MLE
Этот перекрестный вопрос, в котором задавался вопрос об имитации выборки с условием наличия фиксированной суммы, напомнил мне проблему, поставленную мне Джорджем Казеллой . Учитывая параметрическую модель f(x|θ)f(x|θ)f(x|\theta) и iid-образец из этой модели (X1,…,Xn)(X1,…,Xn)(X_1,\ldots,X_n) , MLE of определяется как Для заданного значения \ theta существует ли общий способ имитации образца iid …

2
Невозможная проблема оценки?
Вопрос Дисперсия отрицательного биномиального (NB) распределения всегда больше его среднего значения. Когда среднее значение выборки превышает ее дисперсию, попытка подобрать параметры NB с максимальной вероятностью или с оценкой момента не удастся (решения с конечными параметрами не существует). Однако возможно, что выборка, взятая из распределения NB, имеет среднее значение, превышающее дисперсию. …

3
Как сделать оценку, когда доступна только сводная статистика?
Это частично мотивировано следующим вопросом и обсуждением после него. Предположим, что образец iid наблюдается, Xi∼F(x,θ)Xi∼F(x,θ)X_i\sim F(x,\theta) . Цель состоит в том, чтобы оценить . Но оригинальный образец не доступен. Вместо этого мы имеем некоторую статистику выборки . Предположим, что фиксировано. Как мы оцениваем ? Какова будет оценка максимального правдоподобия в …

1
Свойства логистических регрессий
Мы работаем с некоторыми логистическими регрессиями, и мы поняли, что средняя оценочная вероятность всегда равна доле вероятностей в выборке; то есть среднее значение подгонянных значений равно среднему значению по выборке. Кто-нибудь может объяснить мне причину или дать ссылку, где я могу найти эту демонстрацию?

3
Идея и интуиция, стоящие за квазимаксимальной вероятностной оценкой (QMLE)
Вопрос (ы): В чем заключается идея и интуиция, лежащие в основе квазимаксимальной вероятностной оценки (QMLE; также известная как псевдо максимальная правдоподобная оценка, PMLE)? Что заставляет оценщик работать, когда фактическое распределение ошибок не соответствует предполагаемому распределению ошибок? Сайт в Википедии для QMLE - это хорошо (кратко, интуитивно понятно), но я мог …

2
Почему именно используется наблюдаемая информация Фишера?
В стандартной настройке максимального правдоподобия (iid sample из некоторого распределения с плотностью f y ( y | θ 0 )) и в случае правильно заданной модели информация Фишера задается какY1,…,YnY1,…,YnY_{1}, \ldots, Y_{n}fy(y|θ0fy(y|θ0f_{y}(y|\theta_{0} I(θ)=−Eθ0[∂2θ2lnfy(θ)]I(θ)=−Eθ0[∂2θ2ln⁡fy(θ)]I(\theta) = -\mathbb{E}_{\theta_{0}}\left[\frac{\partial^{2}}{\theta^{2}}\ln f_{y}(\theta) \right] где ожидание берется относительно истинной плотности, которая генерировала данные. Я прочитал, что наблюдаемая …

3
Т-распределение Фиттинга в R: параметр масштабирования
Как мне подобрать параметры t-распределения, то есть параметры, соответствующие «среднему» и «стандартному отклонению» нормального распределения. Я предполагаю, что они называются «среднее» и «масштабирование / степени свободы» для t-распределения? Следующий код часто приводит к ошибкам «сбой оптимизации». library(MASS) fitdistr(x, "t") Нужно ли сначала масштабировать х или преобразовать в вероятности? Как лучше …

2
Разница остаточных стандартных ошибок между optim и glm
Я пытаюсь воспроизвести optimрезультаты простой линейной регрессии, снабженной glmили даже nlsR-функциями. Оценки параметров одинаковы, но оценка остаточной дисперсии и стандартные ошибки других параметров не одинаковы, особенно при небольшом размере выборки. Я полагаю, что это из-за различий в способе вычисления остаточной стандартной ошибки между подходами максимального правдоподобия и наименьшего квадрата (деление …

2
Наблюдаемая информационная матрица является последовательной оценкой ожидаемой информационной матрицы?
Я пытаюсь доказать, что наблюдаемая информационная матрица, оцененная по слабо непротиворечивой оценке максимального правдоподобия (MLE), является слабо непротиворечивой оценкой ожидаемой информационной матрицы. Это широко цитируемый результат, но никто не дает ссылку или доказательство (я исчерпал, я думаю, первые 20 страниц результатов Google и мои учебники статистики)! Используя слабо согласованную последовательность …

3
MLE требует данных iid? Или просто независимые параметры?
Оценка параметров с использованием оценки максимального правдоподобия (MLE) включает в себя оценку функции правдоподобия, которая отображает вероятность появления выборки (X) в значения (x) в пространстве параметров (θ) при заданном семействе распределения (P (X = x | θ). ) по возможным значениям θ (примечание: я прав в этом?). Все примеры, которые …

3
Нахождение MLE для одномерного экспоненциального процесса Хоукса
Одномерный экспоненциальный процесс Хоукса - это саморегулирующийся точечный процесс со скоростью поступления событий: λ(t)=μ+∑ti&lt;tαe−β(t−ti)λ(t)=μ+∑ti&lt;tαe−β(t−ti) \lambda(t) = \mu + \sum\limits_{t_i<t}{\alpha e^{-\beta(t-t_i)}} где - время прибытия события.t1,..tnt1,..tn t_1,..t_n Функция логарифмического правдоподобия −tnμ+αβ∑(e−β(tn−ti)−1)+∑i&lt;jln(μ+αe−β(tj−ti))−tnμ+αβ∑(e−β(tn−ti)−1)+∑i&lt;jln⁡(μ+αe−β(tj−ti)) - t_n \mu + \frac{\alpha}{\beta} \sum{( e^{-\beta(t_n-t_i)}-1 )} + \sum\limits_{i<j}{\ln(\mu+\alpha e^{-\beta(t_j-t_i)})} который можно вычислить рекурсивно: −tnμ+αβ∑(e−β(tn−ti)−1)+∑ln(μ+αR(i))−tnμ+αβ∑(e−β(tn−ti)−1)+∑ln⁡(μ+αR(i)) - t_n \mu + …

3
Когда работает максимальная вероятность, а когда нет?
Меня смущает метод максимального правдоподобия по сравнению, например, с вычислением среднего арифметического. Когда и почему максимальное правдоподобие дает «лучшие» оценки, чем, например, среднее арифметическое? Как это проверяется?


3
Почему нужно использовать REML (вместо ML) для выбора среди вложенных моделей var-covar?
Различные описания по выбору модели на случайные эффекты линейных смешанных моделей инструктируют использовать REML. Я знаю разницу между REML и ML на некотором уровне, но я не понимаю, почему REML следует использовать, потому что ML смещен. Например, неправильно ли проводить LRT для параметра дисперсии модели нормального распределения с использованием ML …

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.