Вопросы с тегом «self-study»

Обычное упражнение из учебника, курса или теста, используемое для занятий или самостоятельных занятий. Политика этого сообщества состоит в том, чтобы «предоставлять полезные советы» для таких вопросов, а не полные ответы.

1
Несмещенная оценка с минимальной дисперсией для
Пусть X1,...,XnX1,...,Xn X_1, ...,X_n - случайная выборка из распределения Geometric(θ)Geometric(θ)Geometric(\theta) для 0&lt;θ&lt;10&lt;θ&lt;10<\theta<1 . То есть, pθ(x)=θ(1−θ)x−1I{1,2,...}(x)pθ(x)=θ(1−θ)x−1I{1,2,...}(x)p_{\theta}(x)=\theta(1-\theta)^{x-1} I_{\{1,2,...\}}(x) Найти несмещенную оценку с минимальной дисперсией для g(θ)=1θg(θ)=1θg(\theta)=\frac{1}{\theta} Моя попытка: Поскольку геометрическое распределение принадлежит экспоненциальному семейству, статистика ∑Xi∑Xi\sum X_i является полной и достаточной для θθ \theta . Кроме того, если T(X)=X1T(X)=X1T(X)=X_1 является оценкой …

1
Экспоненциальная семья: наблюдаемая и ожидаемая достаточная статистика
Мой вопрос возникает из прочтения чтения Минки «Оценка распределения Дирихле» , в котором без доказательств говорится следующее в контексте получения оценки максимального правдоподобия для распределения Дирихле на основе наблюдений случайных векторов: Как всегда в случае экспоненциального семейства, когда градиент равен нулю, ожидаемые достаточные статистические данные равны наблюдаемым достаточным статистическим данным. …

1
Лог вероятности для GLM
В следующем коде я выполняю логистическую регрессию для сгруппированных данных, используя glm, и «вручную», используя mle2. Почему функция logLik в R дает мне вероятность логирования logLik (fit.glm) = - 2.336, отличную от той, что logLik (fit.ml) = - 5.514, которую я получаю вручную? library(bbmle) #successes in first column, failures in …

3
Упражнение 2.2 «Элементы статистического обучения»
Учебник сначала генерирует некоторые 2-классовые данные через: который дает: и тогда он спрашивает: Я пытаюсь решить эту проблему, сначала смоделировав это с помощью этой графической модели: где - метка, - индекс выбранного среднего значения , а - точка данных. Это дастccch(1≤h≤10)h(1≤h≤10)h\,(1\le h \le 10)mchmhcm_h^cxxx Pr(x∣mch)=Pr(mch∣h,c=blue)=Pr(mch∣h,c=orange)=Pr(h)=Pr(c)=N(mch,I/5)N((1,0)T,I)N((0,1)T,I)11012Pr(x∣mhc)=N(mhc,I/5)Pr(mhc∣h,c=blue)=N((1,0)T,I)Pr(mhc∣h,c=orange)=N((0,1)T,I)Pr(h)=110Pr(c)=12 \begin{align*} \Pr(x\mid m_h^c) =& \mathcal{N}(m_h^c,\mathbf{I}/5)\\ …

4
Модель истории дискретного времени (выживания) в R
Я пытаюсь вписать модель с дискретным временем в R, но я не уверен, как это сделать. Я читал, что вы можете организовать зависимую переменную в разных строках, по одной для каждого временного наблюдения, и использовать glmфункцию со ссылкой logit или cloglog. В этом смысле, у меня есть три колонки: ID, …
10 r  survival  pca  sas  matlab  neural-networks  r  logistic  spatial  spatial-interaction-model  r  time-series  econometrics  var  statistical-significance  t-test  cross-validation  sample-size  r  regression  optimization  least-squares  constrained-regression  nonparametric  ordinal-data  wilcoxon-signed-rank  references  neural-networks  jags  bugs  hierarchical-bayesian  gaussian-mixture  r  regression  svm  predictive-models  libsvm  scikit-learn  probability  self-study  stata  sample-size  spss  wilcoxon-mann-whitney  survey  ordinal-data  likert  group-differences  r  regression  anova  mathematical-statistics  normal-distribution  random-generation  truncation  repeated-measures  variance  variability  distributions  random-generation  uniform  regression  r  generalized-linear-model  goodness-of-fit  data-visualization  r  time-series  arima  autoregressive  confidence-interval  r  time-series  arima  autocorrelation  seasonality  hypothesis-testing  bayesian  frequentist  uninformative-prior  correlation  matlab  cross-correlation 

1
R линейная регрессия категориальной переменной «скрытое» значение
Это всего лишь пример, с которым я сталкивался несколько раз, поэтому у меня нет примеров данных. Запуск модели линейной регрессии в R: a.lm = lm(Y ~ x1 + x2) x1является непрерывной переменной x2является категориальным и имеет три значения, например, «Низкий», «Средний» и «Высокий». Однако вывод, заданный R, будет выглядеть примерно …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

1
Если квадрат временного ряда является стационарным, является ли исходный временной ряд стационарным?
Я нашел решение, которое гласило, что если квадрат временного ряда является стационарным, то же самое происходит и с исходным временным рядом, и наоборот. Однако я не могу доказать это, у кого-то есть идея, если это правда, и если это как вывести это?

2
Вероятность
Предположим, что X1X1X_1 и X2X2X_2 - независимые геометрические случайные величины с параметром ppp . Какова вероятность того, что X1≥X2X1≥X2X_1 \geq X_2 ? Я запутался в этом вопросе, потому что нам ничего не говорят о X1X1X_1 и X2X2X_2 кроме геометрических. Разве это не будет 50%50%50\% потому что X1X1X_1 и X2X2X_2 могут …

3
Независимость статистики от гамма-распределения
Пусть - случайная выборка из гамма-распределения G a m m a ( α , β ) .X1,...,XnX1,...,XnX_1,...,X_nGamma(α,β)Gamma(α,β)\mathrm{Gamma}\left(\alpha,\beta\right) Пусть и S 2 - выборочное среднее и выборочная дисперсия соответственно.X¯X¯\bar{X}S2S2S^2 Затем докажите или опровергните, что и S 2 / ˉ X 2 независимы.Икс¯X¯\bar{X}S2/ X¯2S2/X¯2S^2/\bar{X}^2 Моя попытка: Так как , нам нужно проверить …

2
Отображение является стандартным Коши, когда является стандартным Коши
Если , найдите распределение .X∼C(0,1)X∼C(0,1)X\sim\mathcal C(0,1)Y=2X1−X2Y=2X1−X2Y=\frac{2X}{1-X^2} Мы имеемFY(y)=Pr(Y≤y)FY(y)=Pr(Y≤y)F_Y(y)=\mathrm{Pr}(Y\le y) =Pr(2X1−X2≤y)=Pr(2X1−X2≤y)\qquad\qquad\qquad=\mathrm{Pr}\left(\frac{2X}{1-X^2}\le y\right) =⎧⎩⎨⎪⎪⎪⎪⎪⎪Pr(X∈(−∞,−1−1+y2√y])+Pr(X∈(−1,−1+1+y2√y]),ify&gt;0Pr(X∈(−1,−1+1+y2√y])+Pr(X∈(1,−1−1+y2√y]),ify&lt;0={Pr(X∈(−∞,−1−1+y2y])+Pr(X∈(−1,−1+1+y2y]),ify&gt;0Pr(X∈(−1,−1+1+y2y])+Pr(X∈(1,−1−1+y2y]),ify&lt;0\qquad\qquad=\begin{cases} \mathrm{Pr}\left(X\in\left(-\infty,\frac{-1-\sqrt{1+y^2}}{y}\right]\right)+\mathrm{Pr}\left(X\in\left(-1,\frac{-1+\sqrt{1+y^2}}{y}\right]\right),\text{if}\quad y>0\\ \mathrm{Pr}\left(X\in\left(-1,\frac{-1+\sqrt{1+y^2}}{y}\right]\right)+\mathrm{Pr}\left(X\in\left(1,\frac{-1-\sqrt{1+y^2}}{y}\right]\right),\text{if}\quad y<0 \end{cases} Интересно, правильное различие в приведенном выше случае или нет. С другой стороны, следующий метод кажется более простым: Мы можем написать используя тождествоY=tan(2tan−1X)Y=tan⁡(2tan−1⁡X)Y=\tan(2\tan^{-1}X)2tanz1−tan2z=tan2z2tan⁡z1−tan2⁡z=tan⁡2z\frac{2\tan z}{1-\tan^2z}=\tan 2z ТеперьX∼C(0,1)⟹tan−1X∼R(−π2,π2)X∼C(0,1)⟹tan−1⁡X∼R(−π2,π2)X\sim\mathcal C(0,1)\implies\tan^{-1}X\sim\mathcal R\left(-\frac{\pi}{2},\frac{\pi}{2}\right) ⟹2tan−1X∼R(−π,π)⟹2tan−1⁡X∼R(−π,π)\qquad\qquad\qquad\quad\implies 2\tan^{-1}X\sim\mathcal R(-\pi,\pi) ⟹tan(2tan−1X)∼C(0,1)⟹tan⁡(2tan−1⁡X)∼C(0,1)\qquad\qquad\qquad\quad\implies\tan\left(2\tan^{-1}X\right)\sim\mathcal C(0,1) , …

3
Что выше, или
Таким образом, у меня был тест вероятности, и я не мог действительно ответить на этот вопрос. Он просто спросил что-то вроде этого: «Учитывая, что является случайной величиной, 0 , используйте правильное неравенство, чтобы доказать, что выше или равно, E (X ^ 2) ^ 3 или E (X ^ 3) ^ …

2
Является ли свойство инвариантности оценки ML бессмысленным с точки зрения Байеса?
Каселла и Бергер утверждают свойство инвариантности оценки ML следующим образом: Тем не менее, мне кажется, что они определяют «вероятность» совершенно случайным и бессмысленным образом:ηη\eta Если я применяю основные правила теории вероятностей к простому случаю, когда , я получаю следующее: L ( η | x ) = p ( x | …

1
Какая модель глубокого обучения может классифицировать категории, которые не являются взаимоисключающими
Примеры: у меня есть предложение в должностной инструкции: «Старший инженер Java в Великобритании». Я хочу использовать модель глубокого обучения, чтобы предсказать ее как 2 категории: English и IT jobs. Если я использую традиционную классификационную модель, она может предсказать только 1 метку с softmaxфункцией на последнем слое. Таким образом, я могу …
9 machine-learning  deep-learning  natural-language  tensorflow  sampling  distance  non-independent  application  regression  machine-learning  logistic  mixed-model  control-group  crossover  r  multivariate-analysis  ecology  procrustes-analysis  vegan  regression  hypothesis-testing  interpretation  chi-squared  bootstrap  r  bioinformatics  bayesian  exponential  beta-distribution  bernoulli-distribution  conjugate-prior  distributions  bayesian  prior  beta-distribution  covariance  naive-bayes  smoothing  laplace-smoothing  distributions  data-visualization  regression  probit  penalized  estimation  unbiased-estimator  fisher-information  unbalanced-classes  bayesian  model-selection  aic  multiple-regression  cross-validation  regression-coefficients  nonlinear-regression  standardization  naive-bayes  trend  machine-learning  clustering  unsupervised-learning  wilcoxon-mann-whitney  z-score  econometrics  generalized-moments  method-of-moments  machine-learning  conv-neural-network  image-processing  ocr  machine-learning  neural-networks  conv-neural-network  tensorflow  r  logistic  scoring-rules  probability  self-study  pdf  cdf  classification  svm  resampling  forecasting  rms  volatility-forecasting  diebold-mariano  neural-networks  prediction-interval  uncertainty 

4
Как мне интерпретировать кривую выживания модели риска Кокса?
Как вы интерпретируете кривую выживания из модели пропорционального риска Кокса? В этом игрушечном примере предположим, что у нас есть модель пропорционального риска Кокса для ageпеременной в kidneyданных, и сгенерируем кривую выживания. library(survival) fit &lt;- coxph(Surv(time, status)~age, data=kidney) plot(conf.int="none", survfit(fit)) grid() Например, в момент , какое утверждение верно? или оба не …

1
Нормально распределенные ошибки и центральная предельная теорема
Во Вводной эконометрике Вулдриджа есть цитата: Аргумент, оправдывающий нормальное распределение ошибок, обычно выполняется примерно так: поскольку является суммой многих ненаблюдаемых факторов, влияющих на , мы можем вызвать центральную предельную теорему, чтобы заключить, что имеет приблизительное нормальное распределение.uuuyyyuuu Эта цитата относится к одному из предположений линейной модели, а именно: u∼N(μ,σ2)u∼N(μ,σ2)u \sim …

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.