Вопросы с тегом «mathematical-statistics»

Математическая теория статистики, связанная с формальными определениями и общими результатами.

2
Какова максимальная оценка вероятности ковариации двумерных нормальных данных, когда известны среднее значение и дисперсия?
Предположим, у нас есть случайная выборка из двумерного нормального распределения, которая имеет нули в качестве средних значений и единицы в качестве дисперсий, поэтому единственным неизвестным параметром является ковариация. Что такое MLE ковариации? Я знаю, что это должно быть что-то вроде но откуда мы это знаем?1n∑nj=1xjyj1n∑j=1nxjyj\frac{1}{n} \sum_{j=1}^{n}x_j y_j

1
Разъяснение в информационной геометрии
Этот вопрос связан с работой Амари « Дифференциальная геометрия изогнутых экспоненциальных семейств-искривлений и потеря информации ». Текст выглядит следующим образом. Пусть - n- мерное многообразие распределений вероятностей с системой координат θ = ( θ 1 , … , θ n ) , где предполагается , что p θ ( x …

2
Что произойдет в одном тесте t-test, если в оценщике дисперсии среднее значение выборки заменено на ?
Предположим t-критерий с одной выборкой, где нулевая гипотеза . Статистика тогда с использованием стандартного отклонения выборки . При оценке сравниваются наблюдения со средним значением выборки : т = ¯ х - μ 0μ=μ0μ=μ0\mu=\mu_0 ss¯xt=x¯¯¯−μ0s/n√t=x¯−μ0s/nt=\frac{\overline{x}-\mu_0}{s/\sqrt{n}}ssssssx¯¯¯x¯\overline{x} s=1n−1∑ni=1(xi−x¯¯¯)2−−−−−−−−−−−−−−−√s=1n−1∑i=1n(xi−x¯)2s=\sqrt{\frac{1}{n-1}\sum_{i=1}^n (x_i-\overline{x})^2} . Однако, если мы предположим, что заданный является истинным, можно также оценить стандартное отклонение …

2
Ожидаемое значение гауссовской случайной величины, преобразованной с помощью логистической функции
И логистическая функция, и стандартное отклонение обычно обозначаются . Я буду использовать и для стандартного отклонения.σσ\sigmaσ(x)=1/(1+exp(−x))σ(x)=1/(1+exp⁡(−x))\sigma(x) = 1/(1+\exp(-x))sss У меня есть логистический нейрон со случайным входом которого среднего и стандартное отклонение я знаю. Я надеюсь, что разница от среднего значения может быть хорошо аппроксимирована некоторым гауссовским шумом. Итак, с небольшим …

1
Являются ли регрессии с ошибками Student-T бесполезными?
Пожалуйста, смотрите редактировать. Когда у вас есть данные с тяжелыми хвостами, выполнение регрессии с ошибками Student-T кажется интуитивно понятным. Исследуя эту возможность, я наткнулся на эту статью: Breusch, TS, Robertson, JC, & Welsh, AH (01 ноября 1997 г.). Новая одежда императора: критика многомерной регрессионной модели. Statistica Neerlandica, 51, 3.) ( …

2
Проверка гипотез и общее расстояние изменения против расхождения Кульбака-Лейблера
В своем исследовании я столкнулся со следующей общей проблемой: у меня есть два распределения и в одной и той же области и большое (но конечное) число выборок из этих распределений. Выборки независимо и идентично распределяются из одного из этих двух распределений (хотя распределения могут быть связаны: например, может быть смесью …

4
Большая картина по анализу выживаемости и анализу данных о жизни
Я слышал об анализе выживания и анализе данных о жизни, но не совсем понимаю общую картину. Мне было интересно, какие темы они затрагивают? Это чистая статистика или просто применение статистики по какой-то конкретной области? Является ли анализ даты жизни частью анализа выживания? Спасибо и всего наилучшего!

3
Распределение
В качестве рутинного упражнения я пытаюсь найти распределение X2+Y2−−−−−−−√X2+Y2\sqrt{X^2+Y^2} где XXXиYYY- независимыеU(0,1)U(0,1) U(0,1)случайные величины. Плотность соединения (X,Y)(X,Y)(X,Y) равна fX,Y(x,y)=10&lt;x,y&lt;1fX,Y(x,y)=10&lt;x,y&lt;1f_{X,Y}(x,y)=\mathbf 1_{0\cos^{-1}\left(\frac{1}{z}\right), так какcosθcos⁡θ\cos\thetaуменьшается наθ∈[0,π2]θ∈[0,π2]\theta\in\left[0,\frac{\pi}{2}\right]; иzsinθ&lt;1⟹θ&lt;sin−1(1z)zsin⁡θ&lt;1⟹θ&lt;sin−1⁡(1z)z\sin\theta<1\implies\theta<\sin^{-1}\left(\frac{1}{z}\right), так какsinθsin⁡θ\sin\thetaувеличивается наθ∈[0,π2]θ∈[0,π2]\theta\in\left[0,\frac{\pi}{2}\right]. Итак, для 1&lt;z&lt;2–√1&lt;z&lt;21< z<\sqrt 2 , у нас естьcos−1(1z)&lt;θ&lt;sin−1(1z)cos−1⁡(1z)&lt;θ&lt;sin−1⁡(1z)\cos^{-1}\left(\frac{1}{z}\right)<\theta<\sin^{-1}\left(\frac{1}{z}\right). Абсолютное значение якобиана преобразования составляет |J|=z|J|=z|J|=z Таким образом, плотность соединения (Z,Θ)(Z,Θ)(Z,\Theta) определяется как fZ,Θ(z,θ)=z1{z∈(0,1),θ∈(0,π/2)}⋃{z∈(1,2√),θ∈(cos−1(1/z),sin−1(1/z))}fZ,Θ(z,θ)=z1{z∈(0,1),θ∈(0,π/2)}⋃{z∈(1,2),θ∈(cos−1⁡(1/z),sin−1⁡(1/z))}f_{Z,\Theta}(z,\theta)=z\mathbf …

1
Доказательство теоремы Питмана – Купмана – Дармуа
Где найти доказательство теоремы Питмана – Купмана – Дармуа? Я уже давно погуглил. Как ни странно, во многих заметках упоминается эта теорема, но ни в одной из них нет доказательства.

1
Как нарисовать подобранный график и реальный график распределения гаммы на одном графике?
Загрузите пакет, необходимый. library(ggplot2) library(MASS) Генерация 10000 номеров, приспособленных к гамма-распределению. x &lt;- round(rgamma(100000,shape = 2,rate = 0.2),1) x &lt;- x[which(x&gt;0)] Нарисуйте функцию плотности вероятности, предположим, что мы не знаем, к какому распределению x подходит. t1 &lt;- as.data.frame(table(x)) names(t1) &lt;- c("x","y") t1 &lt;- transform(t1,x=as.numeric(as.character(x))) t1$y &lt;- t1$y/sum(t1[,2]) ggplot() + geom_point(data …

4
Модель истории дискретного времени (выживания) в R
Я пытаюсь вписать модель с дискретным временем в R, но я не уверен, как это сделать. Я читал, что вы можете организовать зависимую переменную в разных строках, по одной для каждого временного наблюдения, и использовать glmфункцию со ссылкой logit или cloglog. В этом смысле, у меня есть три колонки: ID, …
10 r  survival  pca  sas  matlab  neural-networks  r  logistic  spatial  spatial-interaction-model  r  time-series  econometrics  var  statistical-significance  t-test  cross-validation  sample-size  r  regression  optimization  least-squares  constrained-regression  nonparametric  ordinal-data  wilcoxon-signed-rank  references  neural-networks  jags  bugs  hierarchical-bayesian  gaussian-mixture  r  regression  svm  predictive-models  libsvm  scikit-learn  probability  self-study  stata  sample-size  spss  wilcoxon-mann-whitney  survey  ordinal-data  likert  group-differences  r  regression  anova  mathematical-statistics  normal-distribution  random-generation  truncation  repeated-measures  variance  variability  distributions  random-generation  uniform  regression  r  generalized-linear-model  goodness-of-fit  data-visualization  r  time-series  arima  autoregressive  confidence-interval  r  time-series  arima  autocorrelation  seasonality  hypothesis-testing  bayesian  frequentist  uninformative-prior  correlation  matlab  cross-correlation 

1
Вопрос по образцу автоковариантной функции
Я читаю книгу анализа временных рядов, и формула для автоковариации образца определена в книге как: γˆ( h ) = n- 1Σт = 1н - ч( хт + ч- х¯) ( хT- х¯)γ^(час)знак равноN-1ΣTзнак равно1N-час(ИксT+час-Икс¯)(ИксT-Икс¯)\widehat{\gamma}(h) = n^{-1}\displaystyle\sum_{t=1}^{n-h}(x_{t+h}-\bar{x})(x_t-\bar{x}) сдля . - это среднее.γˆ( - ч ) = γˆ(h)γ^(−h)=γ^(h)\widehat{\gamma}(-h) = \widehat{\gamma}(h)\;ˉ xч = …

1
R линейная регрессия категориальной переменной «скрытое» значение
Это всего лишь пример, с которым я сталкивался несколько раз, поэтому у меня нет примеров данных. Запуск модели линейной регрессии в R: a.lm = lm(Y ~ x1 + x2) x1является непрерывной переменной x2является категориальным и имеет три значения, например, «Низкий», «Средний» и «Высокий». Однако вывод, заданный R, будет выглядеть примерно …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

1
Доказательство последовательности уменьшается (поддерживается путем построения большого количества точек)
Многие из вопросов, которые я разместил на SE в прошлом месяце, были направлены на то, чтобы помочь мне решить эту конкретную проблему. На все вопросы ответили, но я все еще не могу найти решение. Итак, я решил, что мне нужно просто задать проблему, которую я пытаюсь решить напрямую. Пусть , …

1
Границы разности коррелированных случайных величин
Учитывая две сильно коррелированные случайные величины и , я хотел бы ограничить вероятность того, что разностьпревышает некоторое количество: XXXYYY|X−Y||X−Y| |X - Y| P(|X−Y|&gt;K)&lt;δP(|X−Y|&gt;K)&lt;δ P( |X - Y| > K) < \delta Для простоты предположим, что: Коэффициент корреляции известен как «высокий», скажем: ρX,Y=covar(X,Y)/σXσY≥1−ϵρX,Y=covar(X,Y)/σXσY≥1−ϵ \rho_{X,Y}= {covar(X,Y)} / {\sigma_X \sigma_Y} \geq 1 - …

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.