Вопросы с тегом «likelihood»

Учитывая случайную величину которая возникает из параметризованного распределения F (X; θ) , вероятность определяется как вероятность наблюдаемых данных как функция от θ: \ text {L} (θ) = \ text {P} (θ ; х = х)XF(X;θ)θ:L(θ)=P(θ;X=x)

2
Гессиан профиля вероятности используется для стандартной оценки ошибок
Этот вопрос мотивирован этим . Я посмотрел два источника, и это то, что я нашел. А. ван дер Ваарт, Асимптотическая статистика: Редко можно явно рассчитать вероятность профиля, но его численная оценка часто выполнима. Тогда профиль вероятности может служить для уменьшения размерности функции правдоподобия. Профильные функции правдоподобия часто используются так же, …

3
Вероятность против условного распределения для байесовского анализа
Мы можем написать теорему Байеса как p(θ|x)=f(X|θ)p(θ)∫θf(X|θ)p(θ)dθp(θ|x)=f(X|θ)p(θ)∫θf(X|θ)p(θ)dθp(\theta|x) = \frac{f(X|\theta)p(\theta)}{\int_{\theta} f(X|\theta)p(\theta)d\theta} где - апостериор, - условное распределение, а - априорное.p(θ|x)p(θ|x)p(\theta|x)f(X|θ)f(X|θ)f(X|\theta)p(θ)p(θ)p(\theta) или же p(θ|x)=L(θ|x)p(θ)∫θL(θ|x)p(θ)dθp(θ|x)=L(θ|x)p(θ)∫θL(θ|x)p(θ)dθp(\theta|x) = \frac{L(\theta|x)p(\theta)}{\int_{\theta} L(\theta|x)p(\theta)d\theta} где - апостериор, - функция правдоподобия, а - приоритет.L ( θ | x ) p ( θ )p(θ|x)p(θ|x)p(\theta|x)L(θ|x)L(θ|x)L(\theta|x)p(θ)p(θ)p(\theta) Мой вопрос Почему байесовский анализ выполняется с …

2
Понимание логистической регрессии и вероятности
Как работает оценка параметров / тренинг логистической регрессии? Я постараюсь поставить то, что у меня так далеко. Выходными данными являются выходные данные логистической функции в виде вероятности в зависимости от значения x: P(y=1|x)=11+e−ωTx≡σ(ωTx)P(y=1|x)=11+e−ωTx≡σ(ωTx)P(y=1|x)={1\over1+e^{-\omega^Tx}}\equiv\sigma(\omega^Tx) P(y=0|x)=1−P(y=1|x)=1−11+e−ωTxP(y=0|x)=1−P(y=1|x)=1−11+e−ωTxP(y=0|x)=1-P(y=1|x)=1-{1\over1+e^{-\omega^Tx}} Для одного измерения так называемые шансы определяются следующим образом: p(y=1|x)1−p(y=1|x)=p(y=1|x)p(y=0|x)=eω0+ω1xp(y=1|x)1−p(y=1|x)=p(y=1|x)p(y=0|x)=eω0+ω1x{{p(y=1|x)}\over{1-p(y=1|x)}}={{p(y=1|x)}\over{p(y=0|x)}}=e^{\omega_0+\omega_1x} Теперь добавим logфункцию, чтобы получить W_0 …

5
Как выполнить вменение значений в очень большом количестве точек данных?
У меня очень большой набор данных и около 5% случайных значений отсутствуют. Эти переменные связаны друг с другом. В следующем примере набор данных R - просто игрушечный пример с фиктивными коррелированными данными. set.seed(123) # matrix of X variable xmat <- matrix(sample(-1:1, 2000000, replace = TRUE), ncol = 10000) colnames(xmat) <- …
12 r  random-forest  missing-data  data-imputation  multiple-imputation  large-data  definition  moving-window  self-study  categorical-data  econometrics  standard-error  regression-coefficients  normal-distribution  pdf  lognormal  regression  python  scikit-learn  interpolation  r  self-study  poisson-distribution  chi-squared  matlab  matrix  r  modeling  multinomial  mlogit  choice  monte-carlo  indicator-function  r  aic  garch  likelihood  r  regression  repeated-measures  simulation  multilevel-analysis  chi-squared  expected-value  multinomial  yates-correction  classification  regression  self-study  repeated-measures  references  residuals  confidence-interval  bootstrap  normality-assumption  resampling  entropy  cauchy  clustering  k-means  r  clustering  categorical-data  continuous-data  r  hypothesis-testing  nonparametric  probability  bayesian  pdf  distributions  exponential  repeated-measures  random-effects-model  non-independent  regression  error  regression-to-the-mean  correlation  group-differences  post-hoc  neural-networks  r  time-series  t-test  p-value  normalization  probability  moments  mgf  time-series  model  seasonality  r  anova  generalized-linear-model  proportion  percentage  nonparametric  ranks  weighted-regression  variogram  classification  neural-networks  fuzzy  variance  dimensionality-reduction  confidence-interval  proportion  z-test  r  self-study  pdf 

6
Если вы используете точечную оценку, которая максимизирует
Если кто-то сказал «Этот метод использует MLE точечную оценку для параметра, который максимизирует , поэтому он частый; и, кроме того, он не байесовский».P ( x | θ )P(x|θ)\mathrm{P}(x|\theta) Вы бы согласились? Обновление на фоне : я недавно прочитал газету, которая утверждает, что часто. Я не согласен с их утверждением, в …

3
Почему в фильтре Калмана вероятность вычисляется с использованием результатов фильтра, а не сглаженных результатов?
Я использую фильтр Калмана очень стандартным способом. Система представлена ​​уравнением состояния xt+1=Fxt+vt+1xt+1=Fxt+vt+1x_{t+1}=Fx_{t}+v_{t+1} и уравнением наблюдения yt=Hxt+Azt+wtyt=Hxt+Azt+wty_{t}=Hx_{t}+Az_{t}+w_{t} . Учебники учат , что после применения фильтра Калмана и получать «прогнозы на один шаг x^t|t−1x^t|t−1\hat{x}_{t|t-1} (или «отфильтрованная оценка»), мы должны использовать их для вычисления функции правдоподобия: fyt|It−1,zt(yt|It−1,zt)=det[2π(HPt|t−1H′+R)]−12exp{−12(yt−Hx^t|t−1−Azt)′(HPt|t−1H′+R)−1(yt−Hx^t|t−1−Azt)}fyt|It−1,zt(yt|It−1,zt)=det[2π(HPt|t−1H′+R)]−12exp⁡{−12(yt−Hx^t|t−1−Azt)′(HPt|t−1H′+R)−1(yt−Hx^t|t−1−Azt)}f_{y_{t}|\mathcal{I}_{t-1},z_{t}}\left(y_{t}|\mathcal{I}_{t-1},z_{t}\right)=\det\left[2\pi\left(HP_{t|t-1}H^{\prime}+R\right)\right]^{-\frac{1}{2}}\exp\left\{ -\frac{1}{2}\left(y_{t}-H\hat{x}_{t|t-1}-Az_{t}\right)^{\prime}\left(HP_{t|t-1}H^{\prime}+R\right)^{-1}\left(y_{t}-H\hat{x}_{t|t-1}-Az_{t}\right)\right\} Мой вопрос: почему функция правдоподобия …

2
Почему апостериорная плотность пропорциональна функции вероятности, умноженной на предыдущую плотность?
Согласно теореме Байеса, . Но согласно моему эконометрическому тексту говорится, что . Почему это так? Я не понимаю, почему игнорируется.P(y|θ)P(θ)=P(θ|y)P(y)P(y|θ)P(θ)=P(θ|y)P(y)P(y|\theta)P(\theta) = P(\theta|y)P(y)P(θ|y)∝P(y|θ)P(θ)P(θ|y)∝P(y|θ)P(θ)P(\theta|y) \propto P(y|\theta)P(\theta)P(y)P(y)P(y)

1
Пересчитать логарифмическое правдоподобие из простой модели R lm
Я просто пытаюсь пересчитать с помощью dnorm () логарифмическую вероятность, обеспечиваемую функцией logLik из модели lm (в R). Это работает (почти идеально) для большого количества данных (например, n = 1000): > n <- 1000 > x <- 1:n > set.seed(1) > y <- 10 + 2*x + rnorm(n, 0, 2) …

1
P-значения и принцип правдоподобия
Этот вопрос возник в классе: если мы используем p-значения для оценки гипотез в эксперименте, какой части принципа правдоподобия мы не подчиняемся: достаточность или обусловленность ? Моя интуиция будет сказать Достаточность , поскольку вычисление значения р зависит от ненаблюдаемых результатов эксперимента и Достаточность , кажется, дело больше с наблюдениями в рамках …

4
Как мне интерпретировать кривую выживания модели риска Кокса?
Как вы интерпретируете кривую выживания из модели пропорционального риска Кокса? В этом игрушечном примере предположим, что у нас есть модель пропорционального риска Кокса для ageпеременной в kidneyданных, и сгенерируем кривую выживания. library(survival) fit <- coxph(Surv(time, status)~age, data=kidney) plot(conf.int="none", survfit(fit)) grid() Например, в момент , какое утверждение верно? или оба не …

1
Является ли байесовская оценка с «плоским априором» такой же, как оценка максимального правдоподобия?
В филогенетике филогенетические деревья часто строятся с использованием MLE или байесовского анализа. Часто в байесовской оценке используется плоский априор. Насколько я понимаю, байесовская оценка - это оценка вероятности, которая включает в себя предварительную оценку. Мой вопрос: если вы используете фиксированную априорность, отличается ли она от простого анализа вероятности?

1
Наблюдаемая информация Фишера при преобразовании
θ↦g(θ)=ψθ↦g(θ)=ψ\theta\mapsto g(\theta)=\psiг L * ( ψ ) = L ( г - 1 ( ψ ) ) θ г Я * ( г ( θ ) ) = Я ( θ ) | ∂ г ( θ )L∗(ψ)=max{θ:g(θ)=ψ}L(θ)L∗(ψ)=max{θ:g(θ)=ψ}L(θ) L^*(\psi)=\max_{\{\theta:g(\theta)=\psi\}} L(\theta) gggL∗(ψ)=L(g−1(ψ))L∗(ψ)=L(g−1(ψ))L^*(\psi)=L(g^{-1}(\psi))θθ\thetagggI∗(g(θ^))=I(θ^)∣∣∣∣∂g(θ^)∂θ^∣∣∣∣−2,I∗(g(θ^))=I(θ^)|∂g(θ^)∂θ^|−2, I^*(g(\hat{\theta}))=I(\hat{\theta})\left|\frac{\partial g(\hat{\theta})}{\partial \hat{\theta}}\right|^{-2}, где - наблюдаемая информация Фишера, а …

2
Надежный MCMC оценщик предельной вероятности?
Я пытаюсь вычислить предельную вероятность для статистической модели методами Монте-Карло: е( х ) = ∫е( x ∣ θ ) π( θ )dθе(Икс)знак равно∫е(Икс|θ)π(θ)dθf(x) = \int f(x\mid\theta) \pi(\theta)\, d\theta Вероятность того, что она хорошо себя ведет - гладкая, вогнутая - но объемная. Я пробовал значительную выборку, но результаты оказались неубедительными и …

1
Расчет логарифмической вероятности для заданного MLE (цепочки Маркова)
В настоящее время я работаю с цепями Маркова и рассчитал оценку максимального правдоподобия, используя вероятности переходов, как предложено несколькими источниками (т. Е. Количество переходов от a к b, деленное на количество общих переходов от a к другим узлам). Теперь я хочу вычислить логарифмическую вероятность MLE.
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.