Суммируем поток случайных величин: ; пусть будет числом слагаемых, которое нам нужно, чтобы сумма превысила единицу, т. е. - наименьшее число, такое, чтоY Y
Почему среднее значение равно постоянной Эйлера ?е
Суммируем поток случайных величин: ; пусть будет числом слагаемых, которое нам нужно, чтобы сумма превысила единицу, т. е. - наименьшее число, такое, чтоY Y
Почему среднее значение равно постоянной Эйлера ?е
Ответы:
Первое наблюдение: у есть более приятный CDF, чем PMF
Массовая функция вероятности - это вероятность того, что «достаточно» для того, чтобы сумма превысила единицу, то есть превышает единицу, тогда как делает не.
Кумулятивное распределение просто требует, чтобы n было «достаточно», т. Е. I n i = 1 X i > 1 без ограничения на сколько. Это выглядит как гораздо более простое событие, чтобы справиться с вероятностью.
Второе наблюдение: принимает неотрицательные целочисленные значения, поэтому E ( Y ) можно записать в терминах CDF
Ясно , что может принимать только значения в { 0 , 1 , 2 , ... } , так что мы можем написать его среднее с точки зрения дополнительного КОР , ··· F Y .
На самом деле и Pr ( Y = 1 ) оба равны нулю, поэтому первые два члена E ( Y ) = 1 + 1 + … .
Что касается более поздних сроках, если вероятность того, что Σ п я = 1 X я > 1 , какое событие является ˉ F Y ( п ) вероятность?
Третье наблюдение: (гипер) объем симплекса равен 1
симплекс я имею в виду , занимает объем при в стандартных единицах ( п - 1 ) симплекс в все-инфицированного ортантом из R п : это выпуклая оболочка ( п + 1 ) вершин, в частности , происхождение плюс вершины единичного ( n - 1 ) -симплекса в ( 1 , 0 , 0 , … ) , ( 0 , 1 , 0 , … и т. д.
Например, вышеприведенный 2-симплекс с имеет площадь 1 и 3-симплекс сx1+x2+x3≤1имеет объем1 .
Для доказательства того, что происходит путем оценки непосредственно интеграл для вероятности события , описываемого , а также ссылки на два других аргументов см это Math SE нить . Связанный поток также может представлять интерес: существует ли связь между e и суммой объемов n- симплексов?
Зафиксируйте . Пусть U i = X 1 + X 2 + ⋯ + X i - дробные части частичных сумм для i = 1 , 2 , … , n . Независимая однородность X 1 и X i + 1 гарантирует, что U i + 1 с такой же вероятностью будет превышать U i, как и меньше его. Это означает, чтовсе п ! упорядочения последовательности ( U i ) одинаково вероятны.
Учитывая последовательность , мы можем восстановить последовательность X 1 , X 2 , … , X n . Чтобы увидеть, как, обратите внимание, что
потому что оба находятся между 0 и 1 .
Если , то X i + 1 = U i + 1 - U i .
В противном случае , откуда X i + 1 = U i + 1 - U i + 1 .
Существует ровно одна последовательность, в которой уже находятся в возрастающем порядке, и в этом случае 1 > U n = X 1 + X 2 + ⋯ + X n . Быть одним из п ! одинаково вероятные последовательности, у этого есть шанс 1 / n ! происходящего. Во всех других последовательностях по меньшей мере один шаг от U i до U i + 1 не в порядке. Это означает, что сумма X я должен был равняться или превышать 1, Таким образом, мы видим, что
Это дает вероятности для всего распределения , так как для интеграла n ≥ 1
Более того,
QED.
In Sheldon Ross' A First Course in Probability there is an easy to follow proof:
Modifying a bit the notation in the OP, and the minimum number of terms for , or expressed differently:
If instead we looked for:
We can apply the following general properties for continuous variables:
to express conditionally on the outcome of the first uniform, and getting a manageable equation thanks to the pdf of , This would be it:
If the we are conditioning on is greater than , i.e. , If, on the other hand, , , because we already have drawn uniform random, and we still have the difference between and to cover. Going back to equation (1):
If we differentiate both sides of this equation, we can see that:
with one last integration we get:
We know that the expectation that drawing a sample from the uniform distribution and surpassing is , or . Hence, , and . Therefore