Вопросы с тегом «conditional-probability»

Вероятность того, что событие A произойдет, когда известно, что произошло или произошло другое событие B. Обычно его обозначают P (A | B).

14
Вопрос об интервью Amazon - вероятность второго интервью
Я получил этот вопрос во время интервью с Amazon: 50% всех людей, которые получают первое интервью, получают второе интервью 95% ваших друзей, которые получили второе интервью, чувствовали, что у них было хорошее первое интервью 75% ваших друзей, которые НЕ получили второе интервью, считают, что у них было хорошее первое интервью …

2
Вывод условных распределений многомерного нормального распределения
У нас есть многомерный нормальный вектор Y∼N(μ,Σ)Y∼N(μ,Σ){\boldsymbol Y} \sim \mathcal{N}(\boldsymbol\mu, \Sigma) . Попробуйте разделить μμ\boldsymbol\mu и YY{\boldsymbol Y} на μ=[μ1μ2]μ=[μ1μ2]\boldsymbol\mu = \begin{bmatrix} \boldsymbol\mu_1 \\ \boldsymbol\mu_2 \end{bmatrix} Y=[y1y2]Y=[y1y2]{\boldsymbol Y}=\begin{bmatrix}{\boldsymbol y}_1 \\ {\boldsymbol y}_2 \end{bmatrix} с похожим разделением ΣΣ\Sigma на [Σ11Σ21Σ12Σ22][Σ11Σ12Σ21Σ22] \begin{bmatrix} \Sigma_{11} & \Sigma_{12}\\ \Sigma_{21} & \Sigma_{22} \end{bmatrix} Тогда, (y1|y2=a)(y1|y2=a)({\boldsymbol y}_1|{\boldsymbol …

3
Пример: регрессия LASSO с использованием glmnet для двоичного результата
Я начинаю баловаться с использованием glmnetс LASSO регрессией , где мой результат представляет интерес дихотомический. Я создал небольшой фрейм данных ниже: age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, 0, 1, 0, 0) bmi_p <- c(0.86, 0.45, 0.99, 0.84, 0.85, …
78 r  self-study  lasso  regression  interpretation  anova  statistical-significance  survey  conditional-probability  independence  naive-bayes  graphical-model  r  time-series  forecasting  arima  r  forecasting  exponential-smoothing  bootstrap  outliers  r  regression  poisson-distribution  zero-inflation  genetic-algorithms  machine-learning  feature-selection  cart  categorical-data  interpretation  descriptive-statistics  variance  multivariate-analysis  covariance-matrix  r  data-visualization  generalized-linear-model  binomial  proportion  pca  matlab  svd  time-series  correlation  spss  arima  chi-squared  curve-fitting  text-mining  zipf  probability  categorical-data  distance  group-differences  bhattacharyya  regression  variance  mean  data-visualization  variance  clustering  r  standard-error  association-measure  somers-d  normal-distribution  integral  numerical-integration  bayesian  clustering  python  pymc  nonparametric-bayes  machine-learning  svm  kernel-trick  hyperparameter  poisson-distribution  mean  continuous-data  univariate  missing-data  dag  python  likelihood  dirichlet-distribution  r  anova  hypothesis-testing  statistical-significance  p-value  rating  data-imputation  censoring  threshold 

4
Как генерировать коррелированные случайные числа (с учетом средних, дисперсий и степени корреляции)?
Извините, если это кажется слишком основополагающим, но я думаю, что я просто пытаюсь подтвердить понимание здесь. У меня есть чувство, что я должен сделать это в два этапа, и я начал пытаться получить матрицы корреляции, но это только начинает казаться действительно вовлеченным. Я ищу краткое объяснение (в идеале с подсказками …

3
Обобщение закона повторных ожиданий
Я недавно столкнулся с этой личностью: E[E(Y|X,Z)|X]=E[Y|X]E[E(Y|X,Z)|X]=E[Y|X]E \left[ E \left(Y|X,Z \right) |X \right] =E \left[Y | X \right] Я, конечно, знаком с более простой версией этого правила, а именно, что но я не смог найти оправдания для его обобщение.E[E(Y|X)]=E(Y)E[E(Y|X)]=E(Y)E \left[ E \left(Y|X \right) \right]=E \left(Y\right) Я был бы признателен, если …

8
Какова вероятность того, что этот человек является женщиной?
За занавеской стоит человек - я не знаю, женщина это или мужчина. Я знаю, что у человека длинные волосы, и что 90% всех людей с длинными волосами - женщины Я знаю, что у человека редкая группа крови AX3, и что 80% всех людей с этой группой крови - женщины. Какова …

13
Какова интуиция за формулой условной вероятности?
Формула для условной вероятности от AA\text{A} происходящее при условии , что BB\text{B} произошло то: P(A | B)=P(A∩B)P(B).P(A | B)=P(A∩B)P(B). P\left(\text{A}~\middle|~\text{B}\right)=\frac{P\left(\text{A} \cap \text{B}\right)}{P\left(\text{B}\right)}. Мой учебник объясняет интуицию за этим в терминах диаграммы Венна. Принимая во внимание тот факт, что BB\text{B} произошел, единственный способ возникновения - это попадание события на пересечение и …

3
R: Случайный лес, выбрасывающий NaN / Inf в ошибке «вызова сторонней функции», несмотря на отсутствие NaN в наборе данных [закрыто]
Закрыто. Этот вопрос не по теме . В настоящее время не принимает ответы. Хотите улучшить этот вопрос? Обновите вопрос, чтобы он соответствовал теме перекрестной проверки. Закрыто 2 года назад . Я использую каретку, чтобы запустить перекрестный проверенный случайный лес по набору данных. Переменная Y является фактором. В моем наборе данных …

7
Два броска костей - одно и то же число в последовательности
В настоящее время я изучаю класс статистического вывода на Coursera. В одном из заданий возникает следующий вопрос. | Suppose you rolled the fair die twice. What is the probability of rolling the same number two times in a row? 1: 2/6 2: 1/36 3: 0 4: 1/6 Selection: 2 | …

5
Запись в Википедии о вероятности кажется неоднозначной
У меня есть простой вопрос относительно «условной вероятности» и «вероятности». (Я уже рассмотрел этот вопрос здесь, но безрезультатно.) Это начинается со страницы Википедии о вероятности . Они говорят это: Вероятность набора значений параметров, & θθ\theta , учитывая исходы xxx , равна вероятности наблюдаемых результатов этих данных тех значения параметров, то …

2
Парадокс данных iid (по крайней мере для меня)
Насколько позволяют мои совокупные (и скудные) знания по статистике, я понял, что если - это случайные переменные, то, как следует из этого термина, они независимы и одинаково распределены.X1,X2,...,XnX1,X2,...,XnX_1, X_2,..., X_n Здесь меня интересует прежнее свойство примеров iid, которое гласит: p(Xn|Xi1,Xi2,...,Xik)=p(Xn),p(Xn|Xi1,Xi2,...,Xik)=p(Xn),p(X_{n}|X_{i_1},X_{i_2},...,X_{i_k}) = p(X_{n}), для любой коллекции различных s st . 1 …

4
Проблема Монти Холла с ошибочным Монти
Монти прекрасно знал, была ли за дверью коза (или она была пуста). Этот факт позволяет игроку удвоить свой показатель успеха с течением времени, переключая «догадки» на другую дверь. Что если знания Монти были не идеальными? Что если иногда приз действительно находился в том же дверном проеме, что и коза? Но …

4
Может ли кто-нибудь объяснить сопряженные приоры в простейших терминах?
Некоторое время я пытался понять идею сопряженных априорных значений в байесовской статистике, но я просто не понимаю ее. Может ли кто-нибудь объяснить идею в простейших возможных терминах, возможно, используя в качестве примера «априор Гаусса»?

3
Есть ли разница между частотой и байесовской оценкой правдоподобия?
Некоторые источники говорят, что функция правдоподобия не является условной вероятностью, некоторые говорят, что это так. Это очень смущает меня. Согласно большинству источников, которые я видел, вероятность распределения с параметром должна быть произведением функции вероятности массы, учитывая выборок :θθ\thetax innnxixix_i L(θ)=L(x1,x2,...,xn;θ)=∏i=1np(xi;θ)L(θ)=L(x1,x2,...,xn;θ)=∏i=1np(xi;θ)L(\theta) = L(x_1,x_2,...,x_n;\theta) = \prod_{i=1}^n p(x_i;\theta) Например, в логистической регрессии мы …

2
Определение условной вероятности с несколькими условиями
В частности, скажем, у меня есть два события, A и B, и некоторые параметры распределения , и я хотел бы взглянуть на .θθ \theta п( A | B , θ )P(A|B,θ)P(A | B,\theta) Итак, простейшее определение условной вероятности, если для некоторых событий A и B, то . Так что, если …

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.