Представляет ли обратная вероятность что-либо?


Ответы:


87

Да, она обеспечивает 1-in шкалу вероятностей. Например, обратное значение .01 равно 100, поэтому событие с вероятностью 0,01 имеет вероятность 1 к 100. Это полезный способ для представления малых вероятностей, таких как .0023, что составляет примерно 1 из 435.n


8
+1 Это форма «редкости», которую иногда используют в разговорах о редких событиях (сродни «наводнению в сто лет»). При работе с различными аспектами страхования необычных событий такие меры представляют интерес. В случае P (X = 1) это может быть не так актуально.
Glen_b

15
Несколько связано количество, необходимое для лечения ( NNT ).
gung - Восстановить Монику

1
Так что, в принципе, обратная вероятность - это редкость чего-либо. Вероятность = .0023, редкость = (1 в) 435
Cullub

44

1p вообще ничего не значит (но конкретное значение для конкретной случайной величины см. в ответе Алекса Р.). Однако логарифм от до основания 2, а именно,1p представляет собой объем информации (измеренный в битах), который вы получаете, когда вам сообщают, что событие (с вероятностью ) произошло. Если событие имеет вероятность , тогда вы получаете один бит информации, когда вам говорят, что оно произошло. В другом ответе Кодиолог предположил, что если выбрано как или , то можно сказать, чтоlog21p=log2pp12N1p1p

an event of probability p has approximately 1 chance in N of occurring

Таким образом, начиная с , событие, имеющее шанс на миллион происшествий, передает вам только около 20 битов информации, что намного меньше, чем необходимо для передачи «новичков». выиграть!" в ASCII! :-)2201061


3
Стоит отметить, что монотонен, поэтому для вероятностей и мы можем указатьlogpqp>q1p1qlog1plog1q
теневик

30

В случае геометрического распределения, обратная представляет ожидаемое количество бросков, которое вам нужно сделать, чтобы увидеть один успех. Например, если монета имеет вероятность приземления на головы, то вам нужно бросить ее около 5 раз, чтобы увидеть одну голову.1/p0.2


Разве это не проба P (получить голову в 5 запусках) = 1 - P (не получить голову в 5 запусках) = 1 - (0,8) ^ 5 = 0,67 ... Таким образом, вы можете видеть, что достаточно 4 запусков получить более 50% шансов увидеть голову.
Дэвид 天宇 Вонг

@David 天宇 Wong: Нет. Пусть будет временем ожидания в бросках до первой монеты. Мы говорим, что . С другой стороны, , . τE[τ]=1/pP(τ=1)=pP(τ=2)=2p(1p)
Алекс Р.

Я понял, это ожидание случайной величины X: = количество попыток, пока не наблюдается голова. E (X) = 1 * P (X = 1) + 2 * P (X = 2) + ... = 5
Дэвид 天宇 Вонг

15

То, что иногда называют европейскими или десятичными, если справедливо, является обратной величиной вероятности выигрыша, которая может быть случайной величиной Бернулли .P(X=1)

Например, если котируемые коэффициенты равны «1,25», и вы делаете ставку вы получаете случае выигрыша (включая исходную ставку, таким образом, выигрыш в ) и ничего не возвращаются в случае проигрыша. Это было бы справедливой ставкой, если бы вероятность выигрыша была , которая имеет обратную .88×1.25=102810=0.810.8=1.25

Точно так же, если котируемые шансы равны "5,00", и вы делаете ставку вы получаете случае выигрыша (включая исходную ставку, таким образом, выигрыш в ) и ничего не возвращаются в случае проигрыша. Это было бы справедливой ставкой, если бы вероятность выигрыша была , которая имеет обратную .88×5=4032840=0.210.2=5.00


10

В контексте плана обследования обратная вероятность включения в выборку называется весом выборки .

Например, в репрезентативной выборке некоторого населения респондент с весом 100 имеет 1/100 шансов быть включенным в выборку, другими словами, этот респондент представляет 100 похожих людей в популяции.


9

В статистической механике система имеет большое количество микросостояний, и фундаментальным принципом является то, что все они предполагаются одинаково вероятными . Таким образом, обратной величиной вероятности конкретного микросостояния является число возможных микросостояний, и это имеет название в физике; это (смутно) называется термодинамической вероятностью .

Логом термодинамической вероятности является энтропия системы, вплоть до постоянной.

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.