Если вы берете байесовский подход и рассматриваете параметры, описывающие распределение как случайную переменную / вектор, тогда наблюдения действительно не являются независимыми, но они будут условно независимы, учитывая знание следовательно, будет иметь место.θ P ( X n ∣ X n - 1 , … X 1 , θ ) = P ( X n ∣ θ )Иксθп( XN∣ Xn - 1, … X1, θ ) = P( XN∣ θ )
В классическом статистическом подходе, является не случайной величиной. Расчеты производятся так, как будто мы знаем, что такое . В некотором смысле, вы всегда обусловливаете (даже если вы не знаете значение).θ θθθθ
Когда вы писали «... предоставить информацию о структуре распределения и, как следствие, о », вы неявно принимали байесовский подход, но не делали его точно. Вы пишете свойство примеров IID, которое будет записывать частый участник, но соответствующее утверждение в байесовской установке будет связано с условием . θИксNθ
Байесовский против классических статистиков
Пусть будет результатом подбрасывания односторонней нечестной монеты. Мы не знаем вероятность того, что монета приземлится головой.Икся
- Для классического статистика, часто встречающегося, является некоторым параметром, назовем его . Заметьте, что здесь скаляр, как число 1/3. Мы можем не знать, что это за число, но это какое-то число! Это не случайно!п( хя= H)θθ
- Для байесовского статистика сама по себе является случайной величиной! Это очень разные!θ
Ключевая идея здесь заключается в том, что байесовский статистик распространяет инструменты вероятности на ситуации, в которых классический статистик этого не делает . Для часто встречающегося, не случайная переменная, потому что она имеет только одно возможное значение ! Множественные результаты не возможны! В воображении Байеса, тем не менее, возможны множественные значения , и Байесов готов смоделировать эту неопределенность (в своем собственном уме), используя инструменты вероятности.θθ
Куда это идет?
Допустим, мы подбрасываем монету раз. Один бросок не влияет на результат другого. Классический статистик назвал бы эти независимые сальто (и они действительно есть). У нас будет:
где неизвестно параметр. (Помните, мы не знаем, что это такое, но это не случайная величина! Это какое-то число.)P ( x n = H ∣ xN
п( хN= H∣ хn - 1, хп - 2, … , Х1) = P( хN= H) = θ
θ
Байесовский глубоко в субъективной вероятности сказал бы, что имеет значение вероятность с ее точки зрения! , Если она видит 10 голов подряд, 11-я голова более вероятна, потому что 10 голов подряд приводят к тому, что монета склоняется в сторону голов.
п( х11= H∣ х10= H, х9= H, … , Х1= H) > P( х1= H)
Что здесь произошло? Что отличается?! Обновление убеждений о скрытой случайной переменной ! Если рассматривается как случайная переменная, сальто больше не являются независимыми. Но сальто условно независимы, учитывая значение .θθθ
п( х11= H∣ х10= H, х9= H, … , Х1= H, θ ) = P( х1= H∣ θ ) = θ
Обусловливание в некотором смысле связывает то, как байесовский и классический статистик моделируют проблему. Или, другими словами, специалист по частоте и Байесовский статистик согласятся, если Байесовские условия будут .θθθ
Дальнейшие заметки
Я старался изо всех сил, чтобы сделать краткое введение здесь, но то, что я сделал, в лучшем случае довольно поверхностно, и концепции в некотором смысле довольно глубоки. Если вы хотите окунуться в философию вероятности, книга Сэвиджа 1954 года « Фонд статистики» - это классика. Google для байесовских и частых, и множество вещей придет.
Еще один способ думать о розыгрышах IID - это теорема де Финетти и понятие взаимозаменяемости . В байесовской структуре взаимозаменяемость эквивалентна независимости, обусловленной некоторой скрытой случайной величиной (в данном случае однобокость монеты).