Вопросы с тегом «maximum-likelihood»

метод оценки параметров статистической модели путем выбора значения параметра, оптимизирующего вероятность наблюдения данной выборки.

1
Использование MLE против OLS
Когда предпочтительнее использовать оценку максимального правдоподобия вместо обычных наименьших квадратов? Каковы сильные и слабые стороны каждого? Я пытаюсь собрать практические знания о том, где использовать каждый в общих ситуациях.

1
Оценка параметров LogLikelihood для линейного фильтра Калмана Гаусса
Я написал некоторый код, который может выполнять фильтрацию Калмана (используя несколько различных фильтров типа Калмана [Information Filter et al.]) Для линейного анализа пространства состояний Гаусса для n-мерного вектора состояния. Фильтры работают отлично, и я получаю хороший вывод. Тем не менее, оценка параметров с помощью логарифмической вероятности сбивает меня с толку. …

1
AIC / BIC: для скольких параметров нужна перестановка?
Допустим, у меня проблема с выбором модели, и я пытаюсь использовать AIC или BIC для оценки моделей. Это просто для моделей, которые имеют некоторое число вещественных параметров.kkk Однако что, если одна из наших моделей (например, модель Мэллова ) имеет перестановку плюс некоторые вещественно-значимые параметры вместо просто вещественно-значимых параметров? Я все …

1
Расчет вероятности от RMSE
У меня есть модель для прогнозирования траектории (х как функция времени) с несколькими параметрами. В настоящий момент я вычисляю среднеквадратичную ошибку (RMSE) между прогнозируемой траекторией и экспериментально записанной траекторией. В настоящее время я минимизирую эту разницу (RMSE), используя simplex (fminsearch в matlab). Несмотря на то, что этот метод дает хорошие …

2
Гессиан профиля вероятности используется для стандартной оценки ошибок
Этот вопрос мотивирован этим . Я посмотрел два источника, и это то, что я нашел. А. ван дер Ваарт, Асимптотическая статистика: Редко можно явно рассчитать вероятность профиля, но его численная оценка часто выполнима. Тогда профиль вероятности может служить для уменьшения размерности функции правдоподобия. Профильные функции правдоподобия часто используются так же, …

1
Является ли оценка MLE асимптотически нормальной и эффективной, даже если модель неверна?
Предпосылка: это может быть глупый вопрос. Я знаю только утверждения об асимптотических свойствах MLE, но я никогда не изучал доказательства. Если бы я это сделал, возможно, я бы не стал задавать эти вопросы, или, может быть, я бы понял, что эти вопросы не имеют смысла ... поэтому, пожалуйста, будьте осторожны …

1
Можете ли вы дать простое интуитивное объяснение метода IRLS, чтобы найти MLE GLM?
Фон: Я пытаюсь следовать обзору Принстона оценки MLE для GLM . Я понимаю основы оценки MLE: likelihood, score, наблюдаемая и ожидаемая Fisher informationи Fisher scoringтехника. И я знаю, как обосновать простую линейную регрессию с помощью оценки MLE . Вопрос: Я не могу понять даже первую строку этого метода :( Что …

1
В поисках теоретического понимания логистической регрессии Ферт
Я пытаюсь понять логистическую регрессию Фёрта (метод обработки идеального / полного или квази-полного разделения в логистической регрессии), чтобы я мог объяснить это другим в упрощенном виде. У кого-нибудь есть придуманное объяснение того, что модифицирует оценка Фёрта для MLE? Я прочитал, как мог, Ферт (1993), и я понимаю, что к функции …

3
Что такое метод моментов и чем он отличается от MLE?
В целом кажется, что метод моментов просто сопоставляет наблюдаемое среднее значение выборки или дисперсию с теоретическими моментами для получения оценок параметров. Я понимаю, что это часто то же самое, что и MLE для экспоненциальных семей. Тем не менее, трудно найти четкое определение метода моментов и четкое обсуждение того, почему MLE, …

3
Оценка максимального правдоподобия совместного распределения с учетом только предельных показателей
Пусть - совместное распределение двух категориальных переменных с . Скажем, из этого распределения было взято выборок, но нам даны только предельные значения, а именно для : X , Y x , y ∈ { 1 , … , K } n j = 1 , … , Kпх , уpx,yp_{x,y}Икс, …

1
Рассчитать логарифмическое правдоподобие «вручную» для обобщенной нелинейной регрессии наименьших квадратов (nlme)
Я пытаюсь вычислить логарифмическую вероятность для обобщенной нелинейной регрессии наименьших квадратов для функции оптимизированной с помощью функция в пакете R , используя ковариационную матрицу дисперсии, генерируемую расстояниями на филогенетическом дереве, предполагающем броуновское движение ( из пакета). Следующий воспроизводимый код R подходит для модели gnls с использованием данных x, y и …

1
Соотношение вероятностей и соотношение PDF-файлов
Я использую Байес для решения проблемы кластеризации. После выполнения некоторых вычислений у меня возникает необходимость получить соотношение двух вероятностей: п( А ) / П( Б )P(A)/P(B)P(A)/P(B) чтобы иметь возможность получить . Эти вероятности получены путем интегрирования двух разных 2D многомерных KDE, как объяснено в этом ответе :п( H| Г)P(H|D)P(H|D) P …

2
Всегда ли MLE означает, что мы знаем основной PDF наших данных, а EM означает, что мы не знаем?
У меня есть несколько простых концептуальных вопросов, которые я хотел бы прояснить в отношении MLE (Максимальная оценка правдоподобия) и какую связь он имеет, если таковые имеются, с EM (Максимальное ожидание). Насколько я понимаю, если кто-то говорит «Мы использовали MLE», означает ли это автоматически, что у него есть явная модель PDF …

2
Интегрирование оценки плотности ядра в 2D
Я исхожу из этого вопроса на случай, если кто-нибудь захочет пойти по следу. По сути, у меня есть набор данных состоящий из объектов, где к каждому объекту прикреплено заданное количество измеренных значений (два в данном случае):NΩΩ\OmegaNNN Ω=o1[x1,y1],o2[x2,y2],...,oN[xN,yN]Ω=o1[x1,y1],o2[x2,y2],...,oN[xN,yN]\Omega = o_1[x_1, y_1], o_2[x_2, y_2], ..., o_N[x_N, y_N] Мне нужен способ определить вероятность …

6
Если вы используете точечную оценку, которая максимизирует
Если кто-то сказал «Этот метод использует MLE точечную оценку для параметра, который максимизирует , поэтому он частый; и, кроме того, он не байесовский».P ( x | θ )P(x|θ)\mathrm{P}(x|\theta) Вы бы согласились? Обновление на фоне : я недавно прочитал газету, которая утверждает, что часто. Я не согласен с их утверждением, в …

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.