Ожидаемое количество бросков до появления первой головы


18

Предположим, что честная монета подбрасывается несколько раз, пока голова не будет получена впервые.

  • Какое ожидаемое количество бросков потребуется?
  • Какое ожидаемое количество хвостов будет получено до получения первой головы?

2
Эта ссылка содержит ответы на оба вопроса: en.wikipedia.org/wiki/Geometric_distribution
swmo

2
Если это вопрос для самостоятельного изучения, добавьте тег.
Сиань

Ответы:


17

На это можно ответить, используя геометрическое распределение следующим образом:

Количество неудач k - 1 до первого успеха (головы) с вероятностью успеха p («головы») определяется как:

p(X=k)=(1p)k1p

где k - общее количество бросков, включая первые «головы», которые заканчивают эксперимент.

И ожидаемое значение X для данного p составляет .1/p=2

Вывод ожидаемого значения можно найти здесь . Последние оставленные неявные шаги должны быть следующими:

включить в выражение:ddr11r=1(1r)2

. Приr=1-pэто упрощаетE(X)=p1px=1x rx=p1p r (ddr11r)=p1p r 1(1r)2r=1p

, оправдывая его использование выше.]E(X)=1p

В качестве альтернативы, мы могли бы использовать отрицательное биномиальное распределение, интерпретируемое как число сбоев до первого успеха. Массовая функция вероятности задается как p (число отказов, n , до достижения r успехов | при определенной вероятности, p , успеха в каждом испытании Бернулли):

p(n;r,p)=(n+r1r1)pr(1p)n

Ожидание количества испытаний, n + r определяется по общей формуле:

r(1p)

Учитывая наши известные параметры: г = 1 и р = 0,5 ,

E(n+r;1,0.5)=r1p=110.5=2

Следовательно, мы можем ожидать двух бросков, прежде чем получим первую голову с ожидаемым количеством хвостов .E(n+r)r=1

Мы можем запустить симуляцию Монте-Карло, чтобы доказать это:

   set.seed(1)

p <- 1/2

reps <- 10000                         # Total number of simulations.

tosses_to_HEAD <- 0                   # Setting up an empty vector to add output to.

for (i in 1:reps) {
  head <- 0                           # Set the variable 'head' to 0 with every loop.
  counter <- 0                        # Same forlocal variable 'counter'.
  while (head == 0) {
    head <- head + rbinom(1, 1, p)    # Toss a coin and add to 'head'
    counter <- counter + 1            # Add 1 to 'counter'
  }
  tosses_to_HEAD[i] <- counter        # Append number in counter after getting heads.
}

mean(tosses_to_HEAD)
[1] 2.0097

1
Для текущего вопроса распределение называется Геометрическим распределением . G(p)
Сиань

And the expected value of p 1 / p и как это можно доказать? X for a given p is 1/p
Дилип Сарвейт

Есть хороший вывод на math.stackexchange.com/questions/235927/… Но я могу включить конец этого вывода в свой ответ.
Антони Пареллада

4

Смоделируйте игру, нарисовав билет из коробки. Есть два вида билетов. На одном написано «Стоп, ты бросил головы»; на другом написано «Продолжай, ты подбрасывай хвосты». Ожидаемое количество дополнительных бросков в первом случае равно то время как ожидаемое количество дополнительных бросков во втором случае равно x , скажем - мы еще этого не знаем и должны это выяснить.0x

Запишите эти ожидания на соответствующих билетах: это значения билетов.

Мы знаем три вещи:

  1. 0p

  2. x1p

  3. Ожидание этого единственного розыгрыша, по определению, является суммой взвешенных по вероятности значений для всех видов билетов:

    p×0+(1p)×x=(1p)x.

Давайте интерпретируем это число: это ожидаемое количество дополнительных бросков, которые потребуются до появления головы. Поскольку розыгрыши билетов соответствуют броскам монет, добавление в один розыгрыш, необходимый для получения билета, дает нам ожидаемое количество бросков, которое простоИкссам. Приравнивая эти два выражения,

Иксзнак равно1+(1-п)Икс,

Решение для Иксотвечает на первый вопрос. Поскольку число хвостов всегда на единицу меньше количества розыгрышей, ожидаемое количество хвостов также должно быть на единицу меньше ожидаемого числа розыгрышей. СледовательноИкс-1 отвечает на второй вопрос.


Второе интуитивно понятное решение можно получить, рассматривая очень длинную последовательностьNподбрасывает. Сколько игр было сыграно? Ответ: количество голов (плюс еще одна незавершенная игра, если последовательность заканчивается серией хвостов). Сколько голов ожидается? Ответ:пN, Позвоните на этот номерчас, Слабый закон больших чисел утверждает , что фактическое количество головок, весьма вероятно, будет очень близко кпN при условии N is sufficiently large. Therefore the average game length x, given by some number between n/h and n/(h+1), will be arbitrarily close to n/(pn), whence it must equal x itself.

This leads to an extremely efficient way to simulate the distribution of game lengths. Here is R code. It records "heads" as true values in a boolean array and computes the tosses between successive true values.

p <- 1/3                                           # Set the chance of heads
tosses <- runif(1e6) < p                           # Make a million tosses
sim <- diff(c(TRUE, which(tosses)))                # Compute game lengths
hist(sim, xlab="Game length", main="Distribution") # Graph their distribution
mean(sim)                                          # Report the average length

When I ran this code after setting the seed to 17 (set.seed(17)), the output differed from x by only a tiny amount.


Could you help me understand why the "x" of the drawing game and the "x" in the second equation represent the same thing? I have no idea how do you get the second equation. Thank you very much.
Light

@Light The second equation is explained in the paragraph preceding it.
whuber

♦ Thank u for ur reply. I've read the definition of x and the paragraph you said again and again, but I still don't understand. Let me say my understanding and pls help me know if I misunderstand sth. From my understanding, x is the "additional" expected number in the drawing tickets game, which is a different game from the original game, beacause the expectation(let me call it "E") of the coin game includes the first tossing. In my opinion, E should be "x + 1", but they're not the same thing. In the equation, you made the x and E the same thing that makes me confused. Thank u.
Light

2

Let X be the number of coin flips required until a head is obtained. So, we need to calculate E(X) (i.e. expected value of X).

We can condition E(X) on whatever our first flip is. Let E(X|H) denote the number of remaining coin flips given I got a head on the first flip. Similarly, let E(X|T) denote the number of remaining coin flips given I got a tail on the first flip.

By first step conditioning, we have

E(X)=12(1+E(X|H))+12(1+E(X|T))

Now, as E(X|H) denoted the remaining flips after receiving head on the first, it will be equal to 0 as I don't need to flip after getting 1 head.

And, E(X|T)=E(X), as we did not make any progress towards getting 1 head.

So, E(X)=12(1+0)+12(1+E(X))

=> E(X)=2

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.