Вопросы с тегом «conditional-probability»

Вероятность того, что событие A произойдет, когда известно, что произошло или произошло другое событие B. Обычно его обозначают P (A | B).

2
относительно условной независимости и ее графического представления
При изучении выбора ковариации я однажды прочитал следующий пример. Что касается следующей модели: Его ковариационная матрица и обратная ковариационная матрица имеют следующий вид: Я не понимаю, почему независимость и определяется здесь обратной ковариацией?уИксxxYyy Какая математическая логика лежит в основе этих отношений? Кроме того, левый график на следующем рисунке, как утверждается, …

1
Аксиома выбора Люса, вопрос об условной вероятности [закрыто]
Закрыто . Этот вопрос нуждается в деталях или ясности . В настоящее время он не принимает ответы. Хотите улучшить этот вопрос? Добавьте детали и проясните проблему, отредактировав этот пост . Закрыто 2 года назад . Я читаю Люси (1959) . Тогда я нашел это утверждение: Когда человек выбирает среди альтернатив, …

3
Серьезная углубленная проблема вероятностей подбрасывания монет
Допустим, я делаю 10 000 бросков монеты. Я хотел бы знать вероятность того, сколько сальто потребуется, чтобы получить 4 или более последовательных головы подряд. Счет будет работать следующим образом: один последовательный раунд бросков будет считаться только головами (4 головы или более). Когда хвост поражает и ломает полосу голов, счет начинается …

1
Интерпретация графиков условной плотности
Я хотел бы знать, как правильно интерпретировать графики условной плотности. Я вставил две ниже, которые я создал в R с cdplot. Например, равна ли вероятность того, что Result равен 1, когда Var 1 равен 150 приблизительно 80%? Темно-серая область - это то, что является условной вероятностью того, что Resultона равна …

1
Можно ли обучить модель P (Y | X) с помощью стохастического градиентного спуска из неидеальных выборок P (X) и iid выборок P (Y | X)?
При обучении параметризованной модели (например, для максимизации вероятности) посредством стохастического градиентного спуска на некотором наборе данных обычно предполагается, что обучающие выборки извлекаются из распределения обучающих данных. Таким образом, если цель состоит в том, чтобы смоделировать совместное распределение , то каждый обучающий образец должен быть взят из этого распределения.P(X,Y)P(X,Y)P(X,Y)(xi,yi)(xi,yi)(x_i,y_i) Если вместо …

1
Почему мы не можем доверять нашей интуиции с вероятностью?
Если когда-либо был случай, когда это стало ясно, это проблема Монти Холла. Даже великий Пол Эрдос был одурачен этой проблемой. Мой вопрос, на который может быть трудно ответить, заключается в том, что насчет вероятности того, что мы можем быть настолько уверены в ответе, что получаем интуитивный аргумент и все же …

5
Условные вероятности - уникальны ли они для байесовства?
Интересно, являются ли условные вероятности уникальными для байесовского подхода, или они являются более общей концепцией, которая разделяется между несколькими школами мысли среди статистиков / вероятностных людей. Я как бы полагаю, что это так, потому что я предполагаю, что никто не может отчасти логично, так что я думаю, что частые люди, …

3
Марковские модели с условными переходными вероятностями
Во-первых, позвольте мне сразу признать, что я не настолько разбираюсь в статистике и математике, как хотелось бы. Некоторые могут сказать, что достаточно знаний, чтобы быть опасными. : D Я прошу прощения, если я не использую терминологию правильно. Я пытаюсь смоделировать вероятности перехода системы из одного состояния в другое. Простая марковская …

13
Если «B более вероятно дано A», то «A более вероятно дано B»
Я пытаюсь получить более ясную интуицию: «Если AAA делает BBB более вероятным, то BBB делает AAA более вероятным», т.е. Пусть n(S)n(S)n(S) обозначает размер пространства, в котором находятся AAA и BBB , тогда Утверждение: P(B|A)>P(B)P(B|A)>P(B)P(B|A)>P(B) поэтому n(AB)/n(A)>n(B)/n(S)n(AB)/n(A)>n(B)/n(S)n(AB)/n(A) > n(B)/n(S) поэтому n(AB)/n(B)>n(A)/n(S)N(AВ)/N(В)>N(A)/N(S)n(AB)/n(B) > n(A)/n(S) который является P(A|B)>P(A)п(A|В)>п(A)P(A|B)>P(A) Я понимаю математику, но почему …

1
Как оптимально распределить ничьи при расчете множественных ожиданий
Предположим, мы хотим вычислить некоторое ожидание: EYЕИкс| Y[f(X,Y) ]EYЕИкс|Y[е(Икс,Y)]E_YE_{X|Y}[f(X,Y)] Предположим, мы хотим приблизить это с помощью моделирования Монте-Карло. ЕYЕИкс| Y[ ф( Х, Y) ] ≈ 1R SΣг = 1рΣs = 1Sе(xr,s,yr)EYEX|Y[f(X,Y)]≈1RS∑r=1R∑s=1Sf(xr,s,yr)E_YE_{X|Y}[f(X,Y)] \approx \frac1{RS}\sum_{r=1}^R\sum_{s=1}^Sf(x^{r,s},y^r) Но предположим , что это дорого брать пробы из обоих распределений, так что мы только можем себе …

2
Конвергенция в распределении \ CLT
Учитывая, что , условный дистр. из есть . имеет маргинальный дистр. Пуассона ( ), - положительная постоянная.Y χ 2 ( 2 n ) N θ θN= пNзнак равноNN = nYYYχ2( 2 н )χ2(2N)\chi ^2(2n)NNNθθ\thetaθθ\theta Покажите, что как , в распределении.( Y - E ( Y ) ) / √θ → …

1
Парелл между LSA и pLSA
В оригинальной статье pLSA автор Томас Хоффман проводит параллель между структурами данных pLSA и LSA, которые я хотел бы обсудить с вами. Фон: Вдохновляясь Информация индексирование Предположим , у нас есть коллекция из NNN документов D={d1,d2,....,dN}D={d1,d2,....,dN}D = \lbrace d_1, d_2, ...., d_N \rbrace , и словарный запас MMM точки Ω={ω1,ω2,...,ωM}Ω={ω1,ω2,...,ωM}\Omega …

1
Как сравнить наблюдаемые и ожидаемые события?
Предположим, у меня есть одна выборка частот из 4 возможных событий: Event1 - 5 E2 - 1 E3 - 0 E4 - 12 и у меня есть ожидаемые вероятности того, что мои события произойдут: p1 - 0.2 p2 - 0.1 p3 - 0.1 p4 - 0.6 С суммой наблюдаемых частот …
9 r  statistical-significance  chi-squared  multivariate-analysis  exponential  joint-distribution  statistical-significance  self-study  standard-deviation  probability  normal-distribution  spss  interpretation  assumptions  cox-model  reporting  cox-model  statistical-significance  reliability  method-comparison  classification  boosting  ensemble  adaboost  confidence-interval  cross-validation  prediction  prediction-interval  regression  machine-learning  svm  regularization  regression  sampling  survey  probit  matlab  feature-selection  information-theory  mutual-information  time-series  forecasting  simulation  classification  boosting  ensemble  adaboost  normal-distribution  multivariate-analysis  covariance  gini  clustering  text-mining  distance-functions  information-retrieval  similarities  regression  logistic  stata  group-differences  r  anova  confidence-interval  repeated-measures  r  logistic  lme4-nlme  inference  fiducial  kalman-filter  classification  discriminant-analysis  linear-algebra  computing  statistical-significance  time-series  panel-data  missing-data  uncertainty  probability  multivariate-analysis  r  classification  spss  k-means  discriminant-analysis  poisson-distribution  average  r  random-forest  importance  probability  conditional-probability  distributions  standard-deviation  time-series  machine-learning  online  forecasting  r  pca  dataset  data-visualization  bayes  distributions  mathematical-statistics  degrees-of-freedom 

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.