Вопросы с тегом «central-limit-theorem»

На вопросы о центральной предельной теореме, которая гласит: «При определенных условиях среднее значение достаточно большого числа итераций независимых случайных величин, каждая из которых имеет четко определенное среднее значение и четко определенную дисперсию, будет приблизительно нормально распределено». (Википедия)

1
«Центральная предельная теорема» для взвешенной суммы коррелированных случайных величин
Я читаю газету, которая утверждает, что Икс^К= 1N--√ΣJ = 0N- 1ИксJе- я 2 πK J / N,Икс^Кзнак равно1NΣJзнак равно0N-1ИксJе-я2πКJ/N,\hat{X}_k=\frac{1}{\sqrt{N}}\sum_{j=0}^{N-1}X_je^{-i2\pi kj/N}, (то есть дискретное преобразование Фурье , DFT) CLT стремится к (комплексной) гауссовской случайной переменной. Тем не менее, я знаю, что это не так в целом. Прочитав этот (ошибочный) аргумент, я …

2
Центральная предельная теорема для цепей Маркова
\newcommand{\E}{\mathbb{E}}\newcommand{\P}{\mathbb{P}} Центральная предельная теорема (CLT) утверждает, что для X1,X2,…Икс1,Икс2,...X_1,X_2,\dots независимы и одинаково распределены (iid) с E[Xi]=0Е[Икся]знак равно0\E[X_i]=0 и Var(Xi)&lt;∞Var⁡(Икся)&lt;∞\operatorname{ Var} (X_i)<\infty , сумма сходится к нормальному распределению при n→∞N→∞n\to\infty : ∑i=1nXi→N(0,n−−√).Σязнак равно1NИкся→N(0,N), \sum_{i=1}^n X_i \to N\left(0, \sqrt{n}\right). Предположим вместо этого, что X1,X2,…Икс1,Икс2,...X_1,X_2,\dots образуют цепь Маркова с конечным состоянием со стационарным …

3
Центральная предельная теорема и распределение Парето
Может ли кто-нибудь предоставить простое (непрофессиональное) объяснение связи между распределениями Парето и теоремой о центральном пределе (например, применимо ли это? Почему / почему нет?)? Я пытаюсь понять следующее утверждение: «Центральная предельная теорема не работает с каждым распределением. Это связано с одним подлым фактом - выборочные средства группируются вокруг среднего значения …

2
Ожидание квадратного корня суммы независимых квадратов равномерных случайных величин
Пусть - независимые и одинаково распределенные стандартные однородные случайные величины.X1,…,Xn∼U(0,1)X1,…,Xn∼U(0,1)X_1,\dots,X_n \sim U(0,1) Let Yn=∑inX2iI seek: E[Yn−−√]Let Yn=∑inXi2I seek: E[Yn]\text{Let }\quad Y_n=\sum_i^nX_i^2 \quad \quad \text{I seek: } \quad \mathbb{E}\big[\sqrt{Y_n } \big] Ожидание легко:YnYnY_n E[X2]E[Yn]=∫10y2y√=13=E[∑inX2i]=∑inE[X2i]=n3E[X2]=∫01y2y=13E[Yn]=E[∑inXi2]=∑inE[Xi2]=n3\begin{align} \mathbb{E}\left[X^2\right] &=\int_0^1\frac{y}{2\sqrt{y}}=\frac{1}{3}\\ \mathbb{E}\left[Y_n\right] &=\mathbb{E}\left[\sum_i^nX_i^2\right] = \sum_i^n\mathbb{E}\left[X_i^2\right]=\frac{n}{3} \end{align} Теперь для скучной части. Чтобы применить LOTUS, мне понадобится PDF-файл …

1
Нормально распределенные ошибки и центральная предельная теорема
Во Вводной эконометрике Вулдриджа есть цитата: Аргумент, оправдывающий нормальное распределение ошибок, обычно выполняется примерно так: поскольку является суммой многих ненаблюдаемых факторов, влияющих на , мы можем вызвать центральную предельную теорему, чтобы заключить, что имеет приблизительное нормальное распределение.uuuyyyuuu Эта цитата относится к одному из предположений линейной модели, а именно: u∼N(μ,σ2)u∼N(μ,σ2)u \sim …

1
Является ли сумма большого числа независимых случайных величин Коши нормальной?
По центральной предельной теореме функция плотности вероятности суммы больших независимых случайных величин стремится к нормали. Поэтому можно ли сказать, что сумма большого числа независимых случайных величин Коши также является нормальной?

1
Топологии, для которых ансамбль вероятностных распределений завершен
Я изо всех сил пытался согласовать свое интуитивное понимание распределений вероятностей со странными свойствами, которыми обладают почти все топологии распределений вероятностей. Например, рассмотрим смешанную случайную переменную : выберите гауссову с центром в 0 с дисперсией 1 и с вероятностью добавьте к результату. Последовательность таких случайных переменных будет сходиться (слабо и …

1
Вопрос о предположении нормальности t-критерия
Для t-тестов, согласно большинству текстов, есть предположение, что данные о населении обычно распределяются. Я не понимаю, почему это так. Разве t-критерий не требует только того, чтобы распределение выборки средних значений выборки было нормально распределено, а не совокупность? Если это так, что критерий Стьюдента в конечном итоге требует только нормальности в …

3
Если ,
Предположим следующее: Пусть Zi=min{ki,Xi},i=1,...,nZi=min{ki,Xi},i=1,...,nZ_i = \min\{k_i, X_i\}, i=1,...,n . Также Xi∼U[ai,bi],ai,bi&gt;0Xi∼U[ai,bi],ai,bi&gt;0X_i \sim U[a_i, b_i], \; a_i, b_i >0 . Кроме того, Кя= сaя+ ( 1 - с )bя,0 &lt; с &lt; 1kязнак равносaя+(1-с)бя,0&lt;с&lt;1k_i = ca_i + (1-c)b_i,\;\; 0 k_i) = 1- \Pr(X_i \le k_i) = 1 - кя- аябя- ая= …

1
Пример CLT, когда моменты не существуют
РассмотримXn=⎧⎩⎨1−12kw.p. (1−2−n)/2w.p. (1−2−n)/2w.p. 2−k for k&gt;nXn={1w.p. (1−2−n)/2−1w.p. (1−2−n)/22kw.p. 2−k for k&gt;nX_n = \begin{cases} 1 & \text{w.p. } (1 - 2^{-n})/2\\ -1 & \text{w.p. } (1 - 2^{-n})/2\\ 2^k & \text{w.p. } 2^{-k} \text{ for } k > n\\ \end{cases} Мне нужно показать, что, хотя это имеет бесконечные моменты,n−−√(X¯n)→dN(0,1)n(X¯n)→dN(0,1)\sqrt{n}(\bar{X}_n) \overset{d}{\to} N(0,1) …

2
Конвергенция в распределении \ CLT
Учитывая, что , условный дистр. из есть . имеет маргинальный дистр. Пуассона ( ), - положительная постоянная.Y χ 2 ( 2 n ) N θ θN= пNзнак равноNN = nYYYχ2( 2 н )χ2(2N)\chi ^2(2n)NNNθθ\thetaθθ\theta Покажите, что как , в распределении.( Y - E ( Y ) ) / √θ → …

2
Параметрический, полупараметрический и непараметрический бутстрап для смешанных моделей
Следующие прививки взяты из этой статьи . Я новичок в начальной загрузке и пытаюсь реализовать параметрическую, полупараметрическую и непараметрическую загрузку начальной загрузки для линейной смешанной модели с R bootпакетом. Код R Вот мой Rкод: library(SASmixed) library(lme4) library(boot) fm1Cult &lt;- lmer(drywt ~ Inoc + Cult + (1|Block) + (1|Cult), data=Cultivation) fixef(fm1Cult) …
9 r  mixed-model  bootstrap  central-limit-theorem  stable-distribution  time-series  hypothesis-testing  markov-process  r  correlation  categorical-data  association-measure  meta-analysis  r  anova  confidence-interval  lm  r  bayesian  multilevel-analysis  logit  regression  logistic  least-squares  eda  regression  notation  distributions  random-variable  expected-value  distributions  markov-process  hidden-markov-model  r  variance  group-differences  microarray  r  descriptive-statistics  machine-learning  references  r  regression  r  categorical-data  random-forest  data-transformation  data-visualization  interactive-visualization  binomial  beta-distribution  time-series  forecasting  logistic  arima  beta-regression  r  time-series  seasonality  large-data  unevenly-spaced-time-series  correlation  statistical-significance  normalization  population  group-differences  demography 

2
Рассчитать кривую ROC для данных
Итак, у меня есть 16 испытаний, в которых я пытаюсь идентифицировать человека по биометрической характеристике, используя расстояние Хэмминга. Мой порог установлен на 3,5. Мои данные ниже, и только пробная версия 1 является истинным положительным результатом: Trial Hamming Distance 1 0.34 2 0.37 3 0.34 4 0.29 5 0.55 6 0.47 …
9 mathematical-statistics  roc  classification  cross-validation  pac-learning  r  anova  survival  hazard  machine-learning  data-mining  hypothesis-testing  regression  random-variable  non-independent  normal-distribution  approximation  central-limit-theorem  interpolation  splines  distributions  kernel-smoothing  r  data-visualization  ggplot2  distributions  binomial  random-variable  poisson-distribution  simulation  kalman-filter  regression  lasso  regularization  lme4-nlme  model-selection  aic  r  mcmc  dlm  particle-filter  r  panel-data  multilevel-analysis  model-selection  entropy  graphical-model  r  distributions  quantiles  qq-plot  svm  matlab  regression  lasso  regularization  entropy  inference  r  distributions  dataset  algorithms  matrix-decomposition  regression  modeling  interaction  regularization  expected-value  exponential  gamma-distribution  mcmc  gibbs  probability  self-study  normality-assumption  naive-bayes  bayes-optimal-classifier  standard-deviation  classification  optimization  control-chart  engineering-statistics  regression  lasso  regularization  regression  references  lasso  regularization  elastic-net  r  distributions  aggregation  clustering  algorithms  regression  correlation  modeling  distributions  time-series  standard-deviation  goodness-of-fit  hypothesis-testing  statistical-significance  sample  binary-data  estimation  random-variable  interpolation  distributions  probability  chi-squared  predictor  outliers  regression  modeling  interaction 
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.