Вопросы с тегом «probability»

Вероятность дает количественное описание вероятного возникновения конкретного события.

1
Что это за «максимальный коэффициент корреляции»?
Типичная статистика обработки изображений - это использование текстурных характеристик Харалика , которых 14. Я задаюсь вопросом о 14-й из этих функций: учитывая карту смежности (которую мы можем просто посмотреть на эмпирическое распределение двух целых чисел ), она определяется как: квадратный корень из второго собственного значения , где это:i , j …

2
Стоит ли публиковать на рецензируемой вики StatProb.com? [закрыто]
Закрыто . Этот вопрос основан на мнении . В настоящее время он не принимает ответы. Хотите улучшить этот вопрос? Обновите вопрос, чтобы ответить на него фактами и цитатами, отредактировав этот пост . Закрыто 7 месяцев назад . Фон Я прочитал о StatProb.com из комментария к блогу Эндрю Гельмана . По …

3
Аппроксимация для дискретного распределения
Каков наилучший способ аппроксимировать для двух заданных целых чисел когда вы знаете среднее , дисперсию , асимметрию и избыточный эксцесс дискретного распределения и из (ненулевых) мер формы и что нормальное приближение не подходит?Pr[n≤X≤m]Pr[n≤X≤m]Pr[n \leq X \leq m]m,nm,nm,nμμ\muσ2σ2\sigma^2γ1γ1\gamma_1γ2γ2\gamma_2XXXγ1γ1\gamma_1γ2γ2\gamma_2 Обычно я использовал бы нормальное приближение с целочисленной коррекцией ... Pr[(n−½)≤X≤(m+½)]=Pr[(n−½)−μσ≤Z≤(m+½)−μσ]=Φ((m+½)−μσ)−Φ((n−½)−μσ)Pr[(n−½)≤X≤(m+½)]=Pr[(n−½)−μσ≤Z≤(m+½)−μσ]=Φ((m+½)−μσ)−Φ((n−½)−μσ)Pr[(n - \text{½})\leq …

1
Интуитивно понятно, почему кросс-энтропия является мерой расстояния двух распределений вероятности?
Для двух дискретных распределений и перекрестная энтропия определяется какpppqqq H(p,q)=−∑xp(x)logq(x).H(p,q)=−∑xp(x)log⁡q(x),H(p,q)=-\sum_x p(x)\log q(x). Интересно, почему это будет интуитивно понятная мера расстояния между двумя распределениями вероятностей? Я вижу, что - энтропия , которая измеряет «удивление» . - это мера, которая частично заменяет на . Я до сих пор не понимаю интуитивное значение …

1
Измерьте равномерность распределения по дням недели
У меня похожая проблема с вопросом, заданным здесь: Как измерить неоднородность распределения? У меня есть набор распределения вероятностей по дням недели. Я хочу измерить, насколько близко каждое распределение к (1 / 7,1 / 7, ..., 1/7). В данный момент я использую ответ на вышеуказанный вопрос; норма L2, которая имеет значение …

2
Почему свертка работает?
Итак, я знаю, что если мы хотим найти распределение вероятностей суммы независимых случайных величин , мы можем вычислить его из распределений вероятностей и , говоря:X+YX+YX + YXXXYYY fX+Y(a)=∫∞x=−∞fX,Y(X=x,Y=a−x) dx=∫∞x=−∞fX(x)fY(a−x) dxfX+Y(a)=∫x=−∞∞fX,Y(X=x,Y=a−x) dx=∫x=−∞∞fX(x)fY(a−x) dxf_{X + Y}(a) = \int_{x = -\infty}^{\infty} f_{X, Y}(X = x, Y = a - x)~dx = \int_{x = …

3
Измерьте равномерность распределения точек в 2D квадрате
У меня есть 2D-квадрат, и внутри него есть набор точек, скажем, 1000 точек. Мне нужен способ увидеть, распределено ли распределение точек внутри квадрата (или более или менее равномерно распределено) или они собираются вместе в каком-то месте внутри квадрата. Мне нужен математический / статистический (не программирующий) способ определить это. Я гуглил, …

1
Почему люди используют термин «вес доказательств» и чем он отличается от «точечной взаимной информации»?
Здесь «вес доказательств» (WOE) - это общий термин в опубликованной научной и политической литературе, чаще всего встречающийся в контексте оценки риска, определяемый как: w(e:h)=logp(e|h)p(e|h¯¯¯)вес(е:час)знак равножурнал⁡п(е|час)п(е|час¯)w(e : h) = \log\frac{p(e|h)}{p(e|\overline{h})} где - доказательство, h - гипотеза.eеehчасh Теперь я хочу знать, в чем главное отличие PMI (точечная взаимная информация). pmi(e,h)=logp(e,h)p(e)∗p(h)pmi(e,h)=log⁡p(e,h)p(e)∗p(h)pmi(e,h)=\log\frac{p(e,h)}{p(e)*p(h)}

2
Что подразумевается под категориальным распределением?
Является ли этот отдельный тип распределения (например, Биномиальный, Бернулли, Мультомиальный) или любым распределением может быть представлен таким способом. Может кто-нибудь прояснить на простом примере

1
Выпуклость функции PDF и CDF стандартной нормальной случайной величины
Пожалуйста, предоставьте доказательство того, что является выпуклым . Здесь и являются стандартными нормальными PDF и CDF соответственно.Q(x)=x2+xϕ(x)Φ(x)Q(x)=x2+xϕ(x)Φ(x)Q\left(x\right)=x^{2}+x\frac{\phi\left(x\right)}{\Phi\left(x\right)}∀x>0∀x>0\forall x>0 ϕϕ\phiΦΦ\mathbf{\Phi} ШАГИ ПРОБОВАНЫ 1) КАЛЬКУЛЬНЫЙ МЕТОД Я попробовал метод исчисления и получил формулу для второго производного, но не смог показать, что он положительный . Пожалуйста, дайте мне знать, если вам нужна дополнительная …

2
Какова вероятность того, что задано ?
Предположим, что XXX и YYY двумерные нормальные со средним μ=(μ1,μ2)μ=(μ1,μ2)\mu=(\mu_1,\mu_2) и ковариацией Σ=[σ11σ12σ12σ22]Σ=[σ11σ12σ12σ22]\Sigma = \begin{bmatrix} \sigma_{11} & \sigma_{12} \\ \sigma_{12} & \sigma_{22} \\ \end{bmatrix} . Какова вероятность Pr(X&lt;Y|min(X,Y))Pr(X&lt;Y|min(X,Y))\Pr\left(X<Y|\min\left(X,Y\right)\right) ?

1
Отрицательные вероятности: объяснения дилетанта
Я был очень заинтригован ответом здесь. Я хотел бы получить более понятное объяснение того, что могут означать отрицательные вероятности и их применения, возможно, с примерами. Например, что бы это значило для события с вероятностью -10%, согласно этим расширенным мерам вероятности?

2
Распределение и дисперсия числа треугольников в случайном графе
Рассмотрим случайный граф Эрдоса-Реньи G=(V(n),E(p))G=(V(n),E(p))G=(V(n),E(p)) . Множество nnn вершин VVV помечено V={1,2,…,n}V={1,2,…,n}V = \{1,2,\ldots,n\} . Множество ребер EEE строится случайным процессом. Пусть ppp - вероятность 0&lt;p&lt;10&lt;p&lt;10<p<1 , тогда каждая неупорядоченная пара вершин {i,j}{i,j}\{i,j\} ( i≠ji≠ji \neq j ) встречается как ребро в EEE с вероятностью ppp независимо от других пар. …

2
Если сумма вероятностей событий равна вероятности их объединения, означает ли это, что события не пересекаются?
Аксиоматически, вероятность - это функция которая присваивает действительное число каждому событию если оно удовлетворяет трем основным предположениям (предположениям Колмогорова):PPPP(A)P(A)P(A)AAA P(A)≥0 for everyAP(A)≥0 for everyAP(A) \geq 0 \ \text{for every} A P(Ω)=1P(Ω)=1P(\Omega) = 1 If A1,A2,⋯are disjoint, thenP(⋃∞i=1Ai)=∑i=1∞P(Ai)If A1,A2,⋯are disjoint, thenP(⋃i=1∞Ai)=∑i=1∞P(Ai)\text{If} \ A_1, A_2, \cdots \text{are disjoint, then}\\ P\left(\bigcup_{i=1}^{\infty}A_i\right) = \sum\limits_{i=1}^{\infty}P(A_i) …

1
Получите совместное распределение из парного предельного распределения
Предположим, у нас есть 3 случайные величины , и мы знаем попарно маргинальное распределение P ( X 1 , X 2 ) , P ( X 2 , X 3 ) , P ( X 3 , X 1 ) , но мы больше ничего не знаем (например, условная независимость). …

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.