Вопросы с тегом «likelihood»

Учитывая случайную величину которая возникает из параметризованного распределения F (X; θ) , вероятность определяется как вероятность наблюдаемых данных как функция от θ: \ text {L} (θ) = \ text {P} (θ ; х = х)XF(X;θ)θ:L(θ)=P(θ;X=x)

10
В чем разница между «вероятностью» и «вероятностью»?
На странице википедии утверждается, что вероятность и вероятность - это разные понятия. На нетехническом языке «правдоподобие» обычно является синонимом «вероятности», но при статистическом использовании существует четкое различие в перспективе: число, которое является вероятностью некоторых наблюдаемых результатов при наборе значений параметров, рассматривается как вероятность набора значений параметров с учетом наблюдаемых результатов. …

3
Пример: регрессия LASSO с использованием glmnet для двоичного результата
Я начинаю баловаться с использованием glmnetс LASSO регрессией , где мой результат представляет интерес дихотомический. Я создал небольшой фрейм данных ниже: age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, 0, 1, 0, 0) bmi_p <- c(0.86, 0.45, 0.99, 0.84, 0.85, …
78 r  self-study  lasso  regression  interpretation  anova  statistical-significance  survey  conditional-probability  independence  naive-bayes  graphical-model  r  time-series  forecasting  arima  r  forecasting  exponential-smoothing  bootstrap  outliers  r  regression  poisson-distribution  zero-inflation  genetic-algorithms  machine-learning  feature-selection  cart  categorical-data  interpretation  descriptive-statistics  variance  multivariate-analysis  covariance-matrix  r  data-visualization  generalized-linear-model  binomial  proportion  pca  matlab  svd  time-series  correlation  spss  arima  chi-squared  curve-fitting  text-mining  zipf  probability  categorical-data  distance  group-differences  bhattacharyya  regression  variance  mean  data-visualization  variance  clustering  r  standard-error  association-measure  somers-d  normal-distribution  integral  numerical-integration  bayesian  clustering  python  pymc  nonparametric-bayes  machine-learning  svm  kernel-trick  hyperparameter  poisson-distribution  mean  continuous-data  univariate  missing-data  dag  python  likelihood  dirichlet-distribution  r  anova  hypothesis-testing  statistical-significance  p-value  rating  data-imputation  censoring  threshold 


4
Почему мы минимизируем отрицательную вероятность, если она эквивалентна максимизации вероятности?
Этот вопрос меня давно озадачил. Я понимаю использование 'log' в максимизации вероятности, поэтому я не спрашиваю о 'log'. Мой вопрос таков: поскольку максимизация логарифмической вероятности эквивалентна минимизации «отрицательной логарифмической вероятности» (NLL), почему мы изобрели эту NLL? Почему бы нам не использовать «положительную вероятность» все время? При каких обстоятельствах предпочтение отдается …

7
Почему кто-то использует байесовский подход с «неинформативным» неподобающим предшествующим вместо классического подхода?
Если интерес представляет собой просто оценка параметров модели (точечная и / или интервальная оценка) и предшествующая информация не является надежной, слабой (я знаю, что это немного расплывчато, но я пытаюсь создать сценарий, в котором выбор до этого сложно) ... Почему кто-то решил использовать байесовский подход с «неинформативными» неподходящими априорными вместо …

9
Почему люди используют р-значения вместо вычисления вероятности модели данных данных?
Грубо говоря, значение p дает вероятность наблюдаемого исхода эксперимента с учетом гипотезы (модели). Имея эту вероятность (p-значение), мы хотим оценить нашу гипотезу (насколько она вероятна). Но не будет ли более естественным рассчитать вероятность гипотезы с учетом наблюдаемого исхода? Более подробно. У нас есть монета. Мы переворачиваем это 20 раз и …

3
Как строго определить вероятность?
Вероятность может быть определена несколькими способами, например: функция LLL из Θ × X,Θ×X\Theta\times{\cal X} которая отображает в т.е. .(θ,x)(θ,x)(\theta,x)L(θ∣x)L(θ∣x)L(\theta \mid x)L:Θ×X→RL:Θ×X→RL:\Theta\times{\cal X} \rightarrow \mathbb{R} случайная функцияL(⋅∣X)L(⋅∣X)L(\cdot \mid X) мы также можем учитывать, что вероятность - это только «наблюдаемая» вероятность L ( ⋅ | х набл )L(⋅∣xobs)L(\cdot \mid x^{\text{obs}}) на практике …

3
Какая информация является информацией Фишера?
Предположим, у нас есть случайная величина . Если был истинным параметром, функция правдоподобия должна быть максимизирована, а производная равна нулю. Это основной принцип оценки максимального правдоподобия.X∼f(x|θ)X∼f(x|θ)X \sim f(x|\theta)θ0θ0\theta_0 Насколько я понимаю, информация о Фишере определяется как я( θ ) = E [ ( ∂∂θе( X| θ) )2]I(θ)=E[(∂∂θf(X|θ))2]I(\theta) = \Bbb E …

3
Каковы некоторые иллюстративные применения эмпирической вероятности?
Я слышал об эмпирической вероятности Оуэна, но до недавнего времени не обращал на это внимания, пока не наткнулся на интересную статью ( Mengersen et al. 2012 ). В моих попытках понять это я выяснил, что вероятность наблюдаемых данных представляется в виде L = ∏япя= ∏яп( Xя= х ) = ∏яп( …

5
Запись в Википедии о вероятности кажется неоднозначной
У меня есть простой вопрос относительно «условной вероятности» и «вероятности». (Я уже рассмотрел этот вопрос здесь, но безрезультатно.) Это начинается со страницы Википедии о вероятности . Они говорят это: Вероятность набора значений параметров, & θθ\theta , учитывая исходы xxx , равна вероятности наблюдаемых результатов этих данных тех значения параметров, то …

1
Расчет предельной вероятности по образцам MCMC
Это повторяющийся вопрос (см. Этот пост , этот пост и этот пост ), но у меня другое вращение. Предположим, у меня есть набор сэмплов из стандартного сэмплера MCMC. Для каждого образца я знаю значение вероятности записи в журнал и предшествующего . Если это помогает, я также знаю значение вероятности записи …

5
Теорема Байеса Интуиция
Я пытался развить интуитивное понимание теоремы Байеса с точки зрения априорной , апостериорной , вероятностной и предельной вероятности. Для этого я использую следующее уравнение: где представляет гипотезу или убеждение, а представляет данные или свидетельство. Я понял концепцию апостериор - это объединяющая сущность, которая сочетает в себе предшествующее убеждение и вероятность …

3
Есть ли разница между частотой и байесовской оценкой правдоподобия?
Некоторые источники говорят, что функция правдоподобия не является условной вероятностью, некоторые говорят, что это так. Это очень смущает меня. Согласно большинству источников, которые я видел, вероятность распределения с параметром должна быть произведением функции вероятности массы, учитывая выборок :θθ\thetax innnxixix_i L(θ)=L(x1,x2,...,xn;θ)=∏i=1np(xi;θ)L(θ)=L(x1,x2,...,xn;θ)=∏i=1np(xi;θ)L(\theta) = L(x_1,x_2,...,x_n;\theta) = \prod_{i=1}^n p(x_i;\theta) Например, в логистической регрессии мы …

6
Задний очень отличается от предыдущего и вероятности
Если априор и вероятность сильно отличаются друг от друга, то иногда возникает ситуация, когда апостериор не похож ни на один из них. Посмотрите, например, эту картинку, которая использует нормальные распределения. Хотя это математически правильно, это, похоже, не соответствует моей интуиции - если данные не соответствуют моим убеждениям или данным, я …

1
Преобразование (нормализация) очень малых значений вероятности в вероятность
Я пишу алгоритм, в котором, учитывая модель, я вычисляю вероятности для списка наборов данных, а затем должен нормализовать (для вероятности) каждый из вероятностей. Таким образом, что-то вроде [0.00043, 0.00004, 0.00321] может быть преобразовано в что-то вроде [0.2, 0.03, 0.77]. Моя проблема заключается в том, что вероятность журналов, с которыми я …

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.