Вопросы с тегом «maximum-likelihood»

метод оценки параметров статистической модели путем выбора значения параметра, оптимизирующего вероятность наблюдения данной выборки.

2
Рекурсивное обновление MLE как нового потока наблюдений в
Общий вопрос Скажем, у нас есть потоковые данные , , ... . Мы хотим рекурсивно вычислить оценку максимального правдоподобия \ boldsymbol {\ theta} . То есть, вычислив \ hat {\ boldsymbol {\ theta}} _ {n-1} = \ underset {\ boldsymbol {\ theta} \ in \ mathbb {R} ^ p} {\ …

5
Может ли эмпирический гессиан М-оценки быть неопределенным?
Джеффри Вулдридж в своем эконометрическом анализе данных поперечного сечения и панелей (стр. 357) говорит, что эмпирический гессиан «не гарантированно будет положительно определенным или даже положительно полуопределенным для конкретного образца, с которым мы работаем». Это кажется мне неправильным, поскольку (помимо численных проблем) гессиан должен быть положительно полуопределенным в результате определения М-оценки …

6
Используем ли мы когда-либо оценку максимального правдоподобия?
Мне интересно, использовалась ли когда-либо максимальная оценка правдоподобия в статистике. Мы изучаем понятие этого, но мне интересно, когда это фактически используется. Если мы предположим распределение данных, мы найдем два параметра, один для среднего значения и один для дисперсии, но действительно ли вы используете его в реальных ситуациях? Может кто-нибудь сказать …

2
Для каких моделей смещение MLE падает быстрее, чем дисперсия?
Пусть θ будет оценка максимального правдоподобия истинного параметра некоторой модели. По мере увеличения числа точек данных ошибка обычно уменьшается как O (1 / \ sqrt n) . Используя неравенство треугольника и свойства ожидания, можно показать, что этот коэффициент ошибок подразумевает, что оба «смещения» \ lVert \ mathbb E \ hat …

1
Ограниченная максимальная вероятность с менее чем полным рангом столбца
Этот вопрос касается оценки ограниченного максимального правдоподобия (REML) в конкретной версии линейной модели, а именно: Y= Х( α ) β+ ϵ ,ε ~ NN( 0 , Σ ( α ) ) ,Yзнак равноИкс(α)β+ε,ε~NN(0,Σ(α)), Y = X(\alpha)\beta + \epsilon, \\ \epsilon\sim N_n(0, \Sigma(\alpha)), где - ( ) матрица, параметризованная , как …

1
Почему мы должны обсуждать поведение конвергенции разных оценок в разных топологиях?
В первой главе книги « Алгебраическая геометрия и теория статистического обучения», в которой говорится о сходимости оценок в разных функциональных пространствах, упоминается, что байесовская оценка соответствует топологии распределения Шварца, тогда как оценка максимального правдоподобия соответствует топологии sup-norm. (на странице 7): Например, sup-норма, LpLpL^p -норма, слабая топология гильбертова пространства L2L2L^2 , …

1
Карет глмнет против cv.glmnet
Кажется, существует большая путаница при сравнении использования glmnetвнутри caretдля поиска оптимальной лямбды и использования cv.glmnetдля выполнения той же задачи. Было задано много вопросов, например: Модель классификации train.glmnet против cv.glmnet? Как правильно использовать glmnet с кареткой? Перекрестная проверка `glmnet` с использованием` caret` но ответа не дано, что может быть связано с …

6
MLE против MAP оценки, когда использовать какой?
MLE = оценка максимального правдоподобия MAP = максимум апостериорный MLE интуитивно понятен / наивен в том смысле, что он начинается только с вероятности наблюдения с учетом параметра (то есть функции правдоподобия) и пытается найти параметр, наилучшим образом соответствующий наблюдению . Но это не принимать во внимание предшествующее знание. MAP кажется …

1
Обязательно ли логистическая регрессия, максимизирующая вероятность, также максимизирует AUC по сравнению с линейными моделями?
Учитывая набор данных с двоичными результатами и некоторой матрицей предикторов , стандартная модель логистической регрессии оценивает коэффициенты \ beta_ {MLE } которые максимизируют биномиальную вероятность. Когда X - полный ранг, \ beta_ {MLE} уникален; когда нет идеального разделения, оно конечно.y∈{0,1}ny∈{0,1}ny\in\{0,1\}^nX∈Rn×pX∈Rn×pX\in\mathbb{R}^{n\times p}βMLEβMLE\beta_{MLE}XXXβMLEβMLE\beta_{MLE} Эта модель максимального правдоподобия также максимизирует ROC AUC (он …

1
Почему MLE имеет смысл, учитывая, что вероятность отдельной выборки равна 0?
Это какая-то странная мысль, которая у меня возникла при просмотре какой-то старой статистики, и по какой-то причине я не могу придумать ответ. Непрерывный PDF говорит нам о плотности наблюдаемых значений в любом заданном диапазоне. А именно, например, если , то вероятность того, что реализация попадает между и , просто где …

1
Используется ли на практике частый условный вывод?
Недавно я просмотрел несколько старых работ Нэнси Рейд, Барндорфа-Нильсена, Ричарда Кокса и, да, маленького Рональда Фишера о понятии «условный вывод» в парадигме частоты, что, по-видимому, означает, что выводы основаны на рассмотрении только «соответствующее подмножество» пробного пространства, а не всего пробного пространства. В качестве ключевого примера известно, что доверительные интервалы, основанные …

1
ANOVA полагается на метод моментов, а не на максимальную вероятность?
Я вижу упомянутое в разных местах, что ANOVA делает оценку, используя метод моментов. Меня смущает это утверждение, потому что, хотя я не знаком с методом моментов, я понимаю, что это нечто отличное от метода максимальной вероятности и не эквивалентное ему; с другой стороны, ANOVA можно рассматривать как линейную регрессию с …

3
Линейная регрессия: есть ли ненормальное распределение, дающее идентичность OLS и MLE?
Этот вопрос вдохновлен долгим обсуждением в комментариях здесь: Как линейная регрессия использует нормальное распределение? В обычной модели линейной регрессии для простоты здесь написано только с одним предиктором: Yi=β0+β1xi+ϵiYi=β0+β1xi+ϵi Y_i = \beta_0 + \beta_1 x_i + \epsilon_i где xixix_i - известные константы, а ϵiϵi\epsilon_i - члены с независимой ошибкой с нулевым …

3
Какой из них лучше максимальная вероятность или предельная вероятность и почему?
При выполнении регрессии, если мы перейдем к определению из: Какова разница между частичной вероятностью, профильной вероятностью и предельной вероятностью? что Максимальное правдоподобие Найти β и θ, который максимизирует L (β, θ | данных). В то время как предельное правдоподобие Мы интегрируем θ из уравнения правдоподобия, используя тот факт, что мы …

1
MLE параметра местоположения в распределении Коши
После центрирования два измерения x и -x можно считать независимыми наблюдениями из распределения Коши с функцией плотности вероятности: 1f(x:θ)=f(x:θ)=f(x :\theta) = ,-∞&lt;x&lt;∞1π(1+(x−θ)2)1π(1+(x−θ)2)1\over\pi (1+(x-\theta)^2) ,−∞&lt;x&lt;∞,−∞&lt;x&lt;∞, -∞ < x < ∞ Покажите, что если MLE для θ равно 0, но если x 2 &gt; 1, есть два MLE для θ , равные …

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.