Вопросы с тегом «mixture»

Распределение смеси - это распределение, которое записывается как выпуклая комбинация других распределений. Используйте тег «составные-распределения» для «конкатенации» распределений (где параметр распределения сам по себе является случайной величиной).

1
Какова дисперсия взвешенной смеси двух гауссиан?
Скажем, у меня есть два нормальных распределения A и B со средствами и и и . Я хочу взять взвешенную смесь этих двух распределений, используя веса и где и . Я знаю, что среднее значение этой смеси будет .μ B σ A σ B p q 0 ≤ p ≤ …

3
Почему существует разница между ручным вычислением 95-процентного доверительного интервала и использованием функции confint () в R?
Дорогие, я заметил нечто странное, что не могу объяснить, не так ли? В итоге: ручной подход к вычислению доверительного интервала в модели логистической регрессии и функция R confint()дают разные результаты. Я проходил Прикладную логистическую регрессию Хосмера и Лемешоу (2-е издание). В 3-й главе приведен пример расчета отношения шансов и 95% …
34 r  regression  logistic  confidence-interval  profile-likelihood  correlation  mcmc  error  mixture  measurement  data-augmentation  r  logistic  goodness-of-fit  r  time-series  exponential  descriptive-statistics  average  expected-value  data-visualization  anova  teaching  hypothesis-testing  multivariate-analysis  r  r  mixed-model  clustering  categorical-data  unsupervised-learning  r  logistic  anova  binomial  estimation  variance  expected-value  r  r  anova  mixed-model  multiple-comparisons  repeated-measures  project-management  r  poisson-distribution  control-chart  project-management  regression  residuals  r  distributions  data-visualization  r  unbiased-estimator  kurtosis  expected-value  regression  spss  meta-analysis  r  censoring  regression  classification  data-mining  mixture 

10
Почему сумма двух случайных величин является сверткой?
Долгое время я не понимал, почему «сумма» двух случайных величин является их сверткой , тогда как сумма функции плотности смеси суммы и равнаf(x)f(x)f(x)g(x)g(x)g(x)pf(x)+(1−p)g(x)pf(x)+(1−p)g(x)p\,f(x)+(1-p)g(x)n; арифметическая сумма, а не их свертка. Точная фраза «сумма двух случайных величин» появляется в Google 146 000 раз и имеет эллиптическую форму следующим образом. Если считать, что …

3
Студент т как смесь гауссов
Используя t-распределение Стьюдента с k>0k>0k > 0 степенями свободы, параметр местоположения и параметр шкалы имеют плотностьсlllsss Γ(k+12)Γ(k2kπs2−−−−√){1+k−1(x−ls)}−(k+1)/2,Γ(k+12)Γ(k2kπs2){1+k−1(x−ls)}−(k+1)/2,\frac{\Gamma \left(\frac{k+1}{2}\right)}{\Gamma\left(\frac{k}{2}\sqrt{k \pi s^2}\right)} \left\{ 1 + k^{-1}\left( \frac{x-l}{s}\right)\right\}^{-(k+1)/2}, как показать, что распределение Стьюдента может быть записано как смесь гауссовских распределений, если , , и интегрирование плотности соединения чтобы получить предельную плотность ? Каковы …

5
Алгоритм мотивации ожидания максимизации
В подходе EM-алгоритма мы используем неравенство Дженсена для получения logp(x|θ)≥∫logp(z,x|θ)p(z|x,θ(k))dz−∫logp(z|x,θ)p(z|x,θ(k))dzlog⁡p(x|θ)≥∫log⁡p(z,x|θ)p(z|x,θ(k))dz−∫log⁡p(z|x,θ)p(z|x,θ(k))dz\log p(x|\theta) \geq \int \log p(z,x|\theta) p(z|x,\theta^{(k)}) dz - \int \log p(z|x,\theta) p(z|x,\theta^{(k)})dz θ(k+1)θ(k+1)\theta^{(k+1)}θ(k+1)=argmaxθ∫logp(z,x|θ)p(z|x,θ(k))dzθ(k+1)=arg⁡maxθ∫log⁡p(z,x|θ)p(z|x,θ(k))dz\theta^{(k+1)}=\arg \max_{\theta}\int \log p(z,x|\theta) p(z|x,\theta^{(k)}) dz Все, что я читаю EM, просто сводит это на нет, но я всегда чувствовал себя неловко, не имея объяснения, почему алгоритм EM …

4
Генерация случайных величин из смеси нормальных распределений
Как я могу сделать выборку из распределения смеси, и в частности из смеси нормальных распределений в R? Например, если я хотел сделать выборку из: 0,3× N( 0 , 1 )+0,5× N( 10 , 1 )+0.2× N( 3 , .1 )0.3×N(0,1)+0.5×N(10,1)+0.2×N(3,.1) 0.3\!\times\mathcal{N}(0,1)\; + \;0.5\!\times\mathcal{N}(10,1)\; + \;0.2\!\times\mathcal{N}(3,.1) как я мог это сделать?

2
«Все эти точки данных поступают из одного и того же распределения». Как проверить?
Я чувствую, что видел эту тему, обсуждаемую здесь ранее, но не смог найти ничего конкретного. Опять же, я тоже не совсем уверен, что искать. У меня есть одномерный набор упорядоченных данных. Я предполагаю, что все точки в наборе взяты из того же распределения. Как я могу проверить эту гипотезу? Разумно …

1
Какова интуиция за сменными образцами при нулевой гипотезе?
Тесты перестановки (также называемые тестом рандомизации, тестом повторной рандомизации или точным тестом) очень полезны и оказываются полезными, когда предположение о нормальном распределении, требуемое, например, t-testне выполняется, и когда преобразование значений путем ранжирования непараметрическое тестирование, как, Mann-Whitney-U-testможет привести к потере большего количества информации. Тем не менее, одно и только одно предположение …
15 hypothesis-testing  permutation-test  exchangeability  r  statistical-significance  loess  data-visualization  normal-distribution  pdf  ggplot2  kernel-smoothing  probability  self-study  expected-value  normal-distribution  prior  correlation  time-series  regression  heteroscedasticity  estimation  estimators  fisher-information  data-visualization  repeated-measures  binary-data  panel-data  mathematical-statistics  coefficient-of-variation  normal-distribution  order-statistics  regression  machine-learning  one-class  probability  estimators  forecasting  prediction  validation  finance  measurement-error  variance  mean  spatial  monte-carlo  data-visualization  boxplot  sampling  uniform  chi-squared  goodness-of-fit  probability  mixture  theory  gaussian-mixture  regression  statistical-significance  p-value  bootstrap  regression  multicollinearity  correlation  r  poisson-distribution  survival  regression  categorical-data  ordinal-data  ordered-logit  regression  interaction  time-series  machine-learning  forecasting  cross-validation  binomial  multiple-comparisons  simulation  false-discovery-rate  r  clustering  frequency  wilcoxon-mann-whitney  wilcoxon-signed-rank  r  svm  t-test  missing-data  excel  r  numerical-integration  r  random-variable  lme4-nlme  mixed-model  weighted-regression  power-law  errors-in-variables  machine-learning  classification  entropy  information-theory  mutual-information 

2
Существует ли стандартный метод для решения проблемы переключения меток при оценке MCMC моделей смесей?
Переключение меток (т. Е. Апостериорное распределение инвариантно к переключению меток компонентов) является проблемной проблемой при использовании MCMC для оценки моделей смесей. Существует ли стандартная (как в общепринятой) методология для решения этой проблемы? Если стандартного подхода не существует, каковы плюсы и минусы ведущих подходов к решению проблемы переключения меток?
15 bayesian  mcmc  mixture 

6
Время, проведенное в деятельности в качестве независимой переменной
Я хочу включить время, потраченное на выполнение чего-либо (например, недели грудного вскармливания), в качестве независимой переменной в линейную модель. Тем не менее, некоторые наблюдения не участвуют в поведении вообще. Кодировать их как 0 на самом деле неправильно, потому что 0 качественно отличается от любого значения> 0 (т.е. женщины, которые не …

1
Карет глмнет против cv.glmnet
Кажется, существует большая путаница при сравнении использования glmnetвнутри caretдля поиска оптимальной лямбды и использования cv.glmnetдля выполнения той же задачи. Было задано много вопросов, например: Модель классификации train.glmnet против cv.glmnet? Как правильно использовать glmnet с кареткой? Перекрестная проверка `glmnet` с использованием` caret` но ответа не дано, что может быть связано с …

3
Связь между суммой гауссовых RV и гауссовой смеси
Я знаю, что сумма гауссианов является гауссовой. Итак, чем же отличается смесь гауссов? Я имею в виду, смесь гауссианов - это просто сумма гауссиан (где каждый гауссиан умножается на соответствующий коэффициент смешения), верно?

2
Почему проблема беспорядка неразрешима для больших выборок?
Предположим, у нас есть множество точек y={y1,y2,…,yN}y={y1,y2,…,yN}\mathbf{y} = \{y_1, y_2, \ldots, y_N \} . Каждая точка yiyiy_i генерируется с использованием распределения p(yi|x)=12N(x,1)+12N(0,10).p(yi|x)=12N(x,1)+12N(0,10). p(y_i| x) = \frac12 \mathcal{N}(x, 1) + \frac12 \mathcal{N}(0, 10). Чтобы получить апостериор дляxxxмы пишем p(x|y)∝p(y|x)p(x)=p(x)∏i=1Np(yi|x).p(x|y)∝p(y|x)p(x)=p(x)∏i=1Np(yi|x). p(x| \mathbf{y}) \propto p(\mathbf{y}| x) p(x) = p(x) \prod_{i = 1}^N p(y_i …

1
Предельная вероятность из вывода Гиббса
Я воспроизводлю результаты с нуля в разделе 4.2.1 Предельная вероятность из вывода Гиббса Сиддхартха Чиб Журнал Американской Статистической Ассоциации, Vol. 90, No. 432. (Dec., 1995), pp. 1313-1321. Это смесь модели нормалей с известным числом компонентов. f ( x ∣ w , μ , σ 2 ) = n ∏ i …

2
Каково расстояние между конечной гауссовой смесью и гауссовой?
Предположим, у меня есть смесь конечного числа гауссиан с известными весами, средними и стандартными отклонениями. Средства не равны. Конечно, можно рассчитать среднее и стандартное отклонение смеси, поскольку моменты представляют собой средневзвешенные значения моментов компонентов. Смесь не является нормальным распределением, но насколько это далеко от нормального распределения? На изображении выше показана …

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.