Вопросы с тегом «intuition»

Вопросы, которые ищут концептуальное или нематематическое понимание статистики.

1
Какова интуиция в изменении метрики информации (VI) для проверки кластера?
Для таких статистиков, как я, очень трудно уловить идею VIметрики (вариации информации) даже после прочтения соответствующей статьи Марины Мелиа « Сравнение кластеризаций - расстояние, основанное на информации » (Journal of Multivariate Analysis, 2007). На самом деле, я не знаком со многими терминами кластеризации. Ниже приведен MWE, и я хотел бы …

3
Интуиция и использует для коэффициента вариации
В настоящее время я посещаю курс « Введение в управление операциями» на Coursera.org. В какой-то момент в курсе профессор начал заниматься изменением времени операций. Измерение, которое он использует, представляет собой Коэффициент вариации , отношение стандартного отклонения к среднему: cv=σμcv=σμc_v = \frac{\sigma}{\mu} Почему это измерение будет использоваться? Каковы преимущества и недостатки …

2
Как понять сверточную сеть глубокого убеждения для классификации аудио?
В « Сверточных сетях глубокого убеждения для масштабируемого обучения без надзора иерархических представлений » Ли и соавт. др. ( PDF ) Предложены сверточные ДБН. Также метод оценивается для классификации изображений. Это звучит логично, поскольку существуют естественные локальные особенности изображения, такие как небольшие углы и края и т. Д. В статье …

1
R / mgcv: Почему тензорные продукты te () и ti () производят разные поверхности?
mgcvПакет Rимеет две функции для установки взаимодействия Тензор продукта: te()и ti(). Я понимаю основное разделение труда между ними (подгонка нелинейного взаимодействия против разложения этого взаимодействия на основные эффекты и взаимодействие). Чего я не понимаю, так это почему te(x1, x2)и ti(x1) + ti(x2) + ti(x1, x2)может дать (немного) разные результаты. MWE …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 

2
Какова интуиция, лежащая в основе рекуррентной нейронной сети с долговременной памятью (LSTM)?
Идея, лежащая в основе Recurrent Neural Network (RNN), мне ясна. Я понимаю это следующим образом: у нас есть последовательность наблюдений ( ) (или, другими словами, многомерный временной ряд). Каждое отдельное наблюдение является числовым вектором. В рамках RNN-модели мы предполагаем, что следующее наблюдение является функцией предыдущего наблюдения а также предыдущего "скрытого …

2
Критерий Колмогорова – Смирнова: статистика p-значения и ks-критерия уменьшается с увеличением размера выборки
Почему p-значения и статистика ks-теста уменьшаются с увеличением размера выборки? Возьмите этот код Python в качестве примера: import numpy as np from scipy.stats import norm, ks_2samp np.random.seed(0) for n in [10, 100, 1000, 10000, 100000, 1000000]: x = norm(0, 4).rvs(n) y = norm(0, 4.1).rvs(n) print ks_2samp(x, y) Результаты: Ks_2sampResult(statistic=0.30000000000000004, pvalue=0.67507815371659508) …


3
Интуиция за формулой для дисперсии суммы двух переменных
Я знаю из предыдущих исследований, что Var(A+B)=Var(A)+Var(B)+2Cov(A,B)Вaр(A+В)знак равноВaр(A)+Вaр(В)+2Соv(A,В)Var(A+B) = Var(A) + Var(B) + 2 Cov (A,B) Однако я не понимаю, почему это так. Я вижу, что эффект будет «увеличивать» дисперсию, когда А и В сильно коваризуются. Имеет смысл, что, когда вы создаете композит из двух сильно коррелированных переменных, вы будете …

1
Интуитивно понятное объяснение обратной вероятности веса лечения (IPTWs) в оценке веса склонности?
Я понимаю механизм вычисления весов, используя оценки склонности : а затем применяют веса в регрессионном анализе, и эти веса служат для «контролировать» или разъединять эффекты ковариат в группах лечения и контрольной группы с переменной результата.w i , j = t r e a tp(xi)p(xi)p(x_i)wi,j=treatwi,j=control=1p(xi)=11−p(xi)wi,j=treat=1p(xi)wi,j=control=11−p(xi)\begin{align} w_{i, j={\rm treat}} &= \frac{1}{p(x_i)} \\[5pt] …

2
Дивергенция Кульбака-Лейблера для двух образцов
Я попытался реализовать численную оценку дивергенции Кульбака-Лейблера для двух выборок. Для отладки реализации возьмем образцы из двух нормальных распределений N(0,1)N(0,1)\mathcal N (0,1) и N(1,2)N(1,2)\mathcal N (1,2) . Для простой оценки я сгенерировал две гистограммы и попытался численно аппроксимировать интеграл. Я застрял с обработкой тех частей гистограммы, где ячейки одной из …

1
Почему
В наборе задач я доказал эту «лемму», результат которой для меня не интуитивен. ZZZ - стандартное нормальное распределение в цензурированной модели. Формально Z*∼ No r m ( 0 , σ2)Z∗∼Norm(0,σ2)Z^* \sim Norm(0, \sigma^2) и Z= Т а х ( Z*, С )Z=max(Z∗,c)Z = max(Z^*, c) . Тогда Е[ Z| Z> …

2
Подходящая мера для поиска наименьшей ковариационной матрицы
В учебнике, который я читаю, они используют положительную определенность (полуположительную определенность) для сравнения двух ковариационных матриц. Идея заключается в том , что если имеет полидисперсность , то меньше , чем . Но я изо всех сил пытаюсь получить интуицию этих отношений?A−BA−BA-BBBBAAA Здесь есть похожая тема: /math/239166/what-is-the-intuition-for-using-definiteness-to-compare-matrices Какова интуиция для использования …

3
Почему стандартная ошибка пропорции, для данного n, наибольшая для 0.5?
Стандартная ошибка пропорции будет наибольшей, которая может быть для данного N, когда рассматриваемая пропорция составляет 0,5, и становится меньше, чем дальше пропорция от 0,5. Я могу понять, почему это так, когда я смотрю на уравнение для стандартной ошибки пропорции, но я не могу объяснить это дальше. Есть ли объяснение помимо …

1
Интуитивное объяснение логов
В нескольких соревнованиях по догонялкам оценка была основана на «логове». Это относится к ошибке классификации. Вот технический ответ, но я ищу интуитивный ответ. Мне очень понравились ответы на этот вопрос о расстоянии Махаланобиса, но PCA не логи. Я могу использовать значение, которое выдает мое классификационное программное обеспечение, но я его …

3
Центральная предельная теорема и распределение Парето
Может ли кто-нибудь предоставить простое (непрофессиональное) объяснение связи между распределениями Парето и теоремой о центральном пределе (например, применимо ли это? Почему / почему нет?)? Я пытаюсь понять следующее утверждение: «Центральная предельная теорема не работает с каждым распределением. Это связано с одним подлым фактом - выборочные средства группируются вокруг среднего значения …

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.