Вопросы с тегом «self-study»

Обычное упражнение из учебника, курса или теста, используемое для занятий или самостоятельных занятий. Политика этого сообщества состоит в том, чтобы «предоставлять полезные советы» для таких вопросов, а не полные ответы.

1
Построение распределения Дирихле с гамма-распределением
Пусть X1,…,Xk+1X1,…,Xk+1X_1,\dots,X_{k+1} - взаимно независимые случайные величины, каждая из которых имеет гамма-распределение с параметрами αi,i=1,2,…,k+1αi,i=1,2,…,k+1\alpha_i,i=1,2,\dots,k+1 показывают, что Yi=XiX1+⋯+Xk+1,i=1,…,kYi=XiX1+⋯+Xk+1,i=1,…,kY_i=\frac{X_i}{X_1+\cdots+X_{k+1}},i=1,\dots,k, имеют совместное распределение какDirichlet(α1,α2,…,αk;αk+1)Dirichlet(α1,α2,…,αk;αk+1)\text{Dirichlet}(\alpha_1,\alpha_2,\dots,\alpha_k;\alpha_{k+1}) Объединенный pdf из (X1,…,Xk+1)=e−∑k+1i=1xixα1−11…xαk+1−1k+1Γ(α1)Γ(α2)…Γ(αk+1)(X1,…,Xk+1)=e−∑i=1k+1xix1α1−1…xk+1αk+1−1Γ(α1)Γ(α2)…Γ(αk+1)(X_1,\dots,X_{k+1})=\frac{e^{-\sum_{i=1}^{k+1}x_i}x_1^{\alpha_1-1}\dots x_{k+1}^{\alpha_{k+1}-1}}{\Gamma(\alpha_1)\Gamma(\alpha_2)\dots \Gamma(\alpha_{k+1})} Затем, чтобы найти совместную pdf из(Y1,…,Yk+1)(Y1,…,Yk+1)(Y_1,\dots,Y_{k+1})я не могу найти якобиан, т. Е.J(x1,…,xk+1y1,…,yk+1)J(x1,…,xk+1y1,…,yk+1)J(\frac{x_1,\dots,x_{k+1}}{y_1,\dots,y_{k+1}})

1
Тест: Скажите классификатору по границе его решения
Ниже приведены 6 границ принятия решений. Границы решения - фиолетовые линии. Точки и крестики - это два разных набора данных. Мы должны решить, какой из них: Линейный СВМ Ядро SVM (Полиномиальное ядро ​​порядка 2) Perceptron Логистическая регрессия Нейронная сеть (1 скрытый слой с 10 выпрямленными линейными единицами) Нейронная сеть (1 …


1
Доказательство стационарности АР (2)
Рассмотрим процесс AR (2) где - стандартный процесс белого шума. Просто для простоты позвольте мне назвать и . Сосредоточившись на корнях уравнения характеристик, я получил Классические условия в учебниках следующие: Я пытался вручную (с помощью Mathematica) решить неравенства на корнях, т. е. систему получая толькоXt=ϕ1Xt−1+ϕ2Xt−2+ϵtXt=ϕ1Xt−1+ϕ2Xt−2+ϵtX_t=\phi_1X_{t-1}+\phi_2X_{t-2}+\epsilon_tϵtϵt\epsilon_tϕ1=bϕ1=b\phi_1=bϕ2=aϕ2=a\phi_{2}=az1,2=−b±b2+4a−−−−−−√2az1,2=−b±b2+4a2az_{1,2}=\frac{-b\pm\sqrt{b^2+4a}}{2a}{|a|&lt;1a±b&lt;1{|a|&lt;1a±b&lt;1\begin{cases}|a|<1 \\ a\pm b<1 \end{cases}⎧⎩⎨|−b−b2+4a√2a|&gt;1|−b+b2+4a√2a|&gt;1{|−b−b2+4a2a|&gt;1|−b+b2+4a2a|&gt;1\begin{cases}|\frac{-b-\sqrt{b^2+4a}}{2a}|>1 \\ …

2
Как рассчитать дисперсию оценки OLS , условной для ?
Я знаю, что и вот как далеко я продвинулся, когда вычислил дисперсию:β0^=y¯−β1^x¯β0^=y¯−β1^x¯\hat{\beta_0}=\bar{y}-\hat{\beta_1}\bar{x} Var(β0^)=Var(y¯−β1^x¯)=Var((−x¯)β1^+y¯)=Var((−x¯)β1^)+Var(y¯)=(−x¯)2Var(β1^)+0=(x¯)2Var(β1^)+0=σ2(x¯)2∑i=1n(xi−x¯)2Var(β0^)=Var(y¯−β1^x¯)=Var((−x¯)β1^+y¯)=Var((−x¯)β1^)+Var(y¯)=(−x¯)2Var(β1^)+0=(x¯)2Var(β1^)+0=σ2(x¯)2∑i=1n(xi−x¯)2\begin{align*} Var(\hat{\beta_0}) &= Var(\bar{y} - \hat{\beta_1}\bar{x}) \\ &= Var((-\bar{x})\hat{\beta_1}+\bar{y}) \\ &= Var((-\bar{x})\hat{\beta_1})+Var(\bar{y}) \\ &= (-\bar{x})^2 Var(\hat{\beta_1}) + 0 \\ &= (\bar{x})^2 Var(\hat{\beta_1}) + 0 \\ &= \frac{\sigma^2 (\bar{x})^2}{\displaystyle\sum\limits_{i=1}^n (x_i - \bar{x})^2} \end{align*} но это далеко, как я получил. …

8
Как интерполяция связана с концепцией регрессии?
Кратко объясните, что подразумевается под интерполяцией. Как это связано с понятием регрессии? Интерполяция - это искусство чтения между строками таблицы, а в элементарной математике этот термин обычно обозначает процесс вычисления промежуточных значений функции из набора заданных или табличных значений этой функции. Я не могу дать ответ на второй вопрос. Пожалуйста …

3
Зачем нам нужна самозагрузка?
В настоящее время я читаю «Все статистические данные» Ларри Вассермана и озадачен тем, что он написал в главе об оценке статистических функций непараметрических моделей. Он написал «Иногда мы можем найти оценочную стандартную ошибку статистической функции, выполнив некоторые вычисления. Однако в других случаях не очевидно, как оценить стандартную ошибку». Я хотел …

4
Ожидаемое значение медианы выборки, учитывая среднее значение выборки
Пусть обозначает медиану, а обозначает среднее случайной выборки размером из распределения . Как я могу вычислить ?Y ˉ X n = 2 k + 1 N ( μ , σ 2 ) E ( Y | ˉ X = ˉ x )YYX¯\bar{X}n=2k+1n=2k+1N(μ,σ2)N(\mu,\sigma^2)E(Y|X¯=x¯)E(Y|\bar{X}=\bar{x}) Интуитивно понятно, что из предположения о нормальности имеет …

1
Вопрос о том, как нормализовать коэффициент регрессии
Не уверен, что слово «нормализация» - это правильное слово, но я постараюсь сделать все возможное, чтобы проиллюстрировать то, что я пытаюсь спросить. Здесь используется оценка наименьших квадратов. Предположим, у вас есть y = β 0 + β 1 x 1y=β0+β1x1y=\beta_0+\beta_1x_1 , вы можете центрировать его вокруг среднего значения y = …

5
Книги по теории вероятностей для самостоятельной работы
Есть ли хорошие книги, в которых объясняются такие важные понятия теории вероятностей, как функции распределения вероятностей и кумулятивные функции распределения? Пожалуйста, избегайте ссылок на такие книги, как «Математическая статистика и анализ данных» Джона Райса, которые начинаются с простых концепций перестановок, а затем внезапно (во 2-й главе) совершают скачок, предполагая знания …

1
Вывод замены переменных функции плотности вероятности?
В книге распознавания образов и машинного обучения (формула 1.27) она дает py(y)=px(x)∣∣∣dxdy∣∣∣=px(g(y))|g′(y)|py(y)=px(x)|dxdy|=px(g(y))|g′(y)|p_y(y)=p_x(x) \left | \frac{d x}{d y} \right |=p_x(g(y)) | g'(y) | гдеx=g(y)x=g(y)x=g(y),px(x)px(x)p_x(x) - это pdf, соответствующийpy(y)py(y)p_y(y) отношению к изменению переменной. В книгах говорится, что это потому, что наблюдения, попадающие в диапазон (x,x+δx)(x,x+δx)(x, x + \delta x) , при малых …

4
Классическая линейная модель - выбор модели
У меня классическая линейная модель, с 5 возможными регрессорами. Они не связаны друг с другом и имеют довольно низкую корреляцию с ответом. Я пришел к модели, в которой 3 регрессора имеют значимые коэффициенты для своей t-статистики (р &lt;0,05). Добавление одной или обеих оставшихся 2 переменных дает значения p&gt; 0,05 для …

2
PDF из
Предположим, что определены из с неизвестными иX1,X2,...,XnX1,X2,...,XnX_1, X_2,...,X_nN(μ,σ2)N(μ,σ2)N(\mu,\sigma^2)μ∈Rμ∈R\mu \in \mathcal Rσ2&gt;0σ2&gt;0\sigma^2>0 Пусть S здесь стандартное отклонение.Z=X1−X¯S,Z=X1−X¯S,Z=\frac{X_1-\bar{X}}{S}, Можно показать, что имеет Лебега pdfZZZ f(z)=n−−√Γ(n−12)π−−√(n−1)Γ(n−22)[1−nz2(n−1)2]n/2−2I(0,(n−1)/n√)(|Z|)f(z)=nΓ(n−12)π(n−1)Γ(n−22)[1−nz2(n−1)2]n/2−2I(0,(n−1)/n)(|Z|)f(z)=\frac{\sqrt{n} \Gamma\left(\frac{n-1}{2}\right)}{\sqrt{\pi}(n-1)\Gamma\left(\frac{n-2}{2}\right)}\left[1-\frac{nz^2}{(n-1)^2}\right]^{n/2-2}I_{(0,(n-1)/\sqrt{n})}(|Z|) Тогда мой вопрос, как получить этот PDF? Вопрос от здесь в примере 3.3.4 , чтобы найти UMVUE из . Я могу понять логику и процедуры, чтобы …
15 self-study  umvue 

2
Имитация розыгрышей из равномерного распределения с использованием розыгрышей из нормального распределения
Недавно я купил ресурс для интервью с наукой о данных, в котором один из вопросов о вероятности был следующим: Принимая во внимание ничьи из нормального распределения с известными параметрами, как вы можете имитировать ничьи из равномерного распределения? Мой оригинальный мыслительный процесс состоял в том, что для дискретной случайной величины мы …

1
Какова интуиция за сменными образцами при нулевой гипотезе?
Тесты перестановки (также называемые тестом рандомизации, тестом повторной рандомизации или точным тестом) очень полезны и оказываются полезными, когда предположение о нормальном распределении, требуемое, например, t-testне выполняется, и когда преобразование значений путем ранжирования непараметрическое тестирование, как, Mann-Whitney-U-testможет привести к потере большего количества информации. Тем не менее, одно и только одно предположение …
15 hypothesis-testing  permutation-test  exchangeability  r  statistical-significance  loess  data-visualization  normal-distribution  pdf  ggplot2  kernel-smoothing  probability  self-study  expected-value  normal-distribution  prior  correlation  time-series  regression  heteroscedasticity  estimation  estimators  fisher-information  data-visualization  repeated-measures  binary-data  panel-data  mathematical-statistics  coefficient-of-variation  normal-distribution  order-statistics  regression  machine-learning  one-class  probability  estimators  forecasting  prediction  validation  finance  measurement-error  variance  mean  spatial  monte-carlo  data-visualization  boxplot  sampling  uniform  chi-squared  goodness-of-fit  probability  mixture  theory  gaussian-mixture  regression  statistical-significance  p-value  bootstrap  regression  multicollinearity  correlation  r  poisson-distribution  survival  regression  categorical-data  ordinal-data  ordered-logit  regression  interaction  time-series  machine-learning  forecasting  cross-validation  binomial  multiple-comparisons  simulation  false-discovery-rate  r  clustering  frequency  wilcoxon-mann-whitney  wilcoxon-signed-rank  r  svm  t-test  missing-data  excel  r  numerical-integration  r  random-variable  lme4-nlme  mixed-model  weighted-regression  power-law  errors-in-variables  machine-learning  classification  entropy  information-theory  mutual-information 

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.