Вероятность против условного распределения для байесовского анализа


13

Мы можем написать теорему Байеса как

p(θ|x)=f(X|θ)p(θ)θf(X|θ)p(θ)dθ

где - апостериор, - условное распределение, а - априорное.p(θ|x)f(X|θ)p(θ)

или же

p(θ|x)=L(θ|x)p(θ)θL(θ|x)p(θ)dθ

где - апостериор, - функция правдоподобия, а - приоритет.L ( θ | x ) p ( θ )p(θ|x)L(θ|x)p(θ)

Мой вопрос

  1. Почему байесовский анализ выполняется с использованием функции правдоподобия, а не условного распределения?
  2. Можете ли вы сказать словами, в чем разница между вероятностью и условным распределением? Я знаю, что вероятность - это не распределение вероятностей, а .L(θ|x)f(X|θ)

1
Нет никакой разницы! Вероятность - это условное распределение , ну пропорционально тому, которое имеет значение. f(X|θ)
kjetil b halvorsen

1
Предыдущий параметр имеет плотность . если реализация имеет значение то время как - наблюдаемое значение случайной величины , то значение функции правдоподобия в точности равно , значение условной плотности из . Разница заключается в том, что для всех реализаций . Однако, как функция отр & thetas ; ( & thetas ; ) & thetas ; & thetas ; х Х л ( & thetas ; | х ) е ( х | & thetas ; ) е X | & thetas ; ( х | & thetas ; = & thetas ; ) Х - F Х | & thetas ; ( х | & thetas ; = & thetas ; ) д х = 1 & thetas ; & thetas ; х L ( & thetas ; | хΘpΘ(θ)ΘθxXL(θx) f(xθ)fXΘ(xΘ=θ)X
fXΘ(xΘ=θ)dx=1
Θθ(и фиксированной ), является не плотность:x L ( θ x ) d θ 1L(θx)
L(θx)dθ1
Дилип Sarwate

Ответы:


11

Предположим, что у вас есть случайные величины (значения которых будут наблюдаться в вашем эксперименте), которые являются условно независимыми, учитывая, что , с условными плотностями , для . Это ваша (постулированная) статистическая (условная) модель, и условные плотности выражают для каждого возможного значения (случайного) параметра вашу неопределенность относительно значений , прежде чем вы получите доступ к любому реальные данные. С помощью условных плотностей вы можете, например, вычислить условные вероятности, такие как Θ = θ е X я | Θ (X1,,XnΘ=θi = 1 , , n θ Θ X i P { X 1B 1 , , X nB nΘ = θ } = B 1 × × B n n i = 1 f X iΘ ( x iθ )fXiΘ(θ)i=1,,nθΘXi

P{X1B1,,XnBnΘ=θ}=B1××Bni=1nfXiΘ(xiθ)dx1dxn,
для каждого .θ

После того, как у вас есть доступ к фактическому образцу значений (реализаций) , которые наблюдались в одном прогоне вашего эксперимента, ситуация меняется: больше нет неопределенности в отношении наблюдаемых . Предположим, что случайное значение принимает значения в некотором пространстве параметров . Теперь вы определяете для этих известных (фиксированных) значений функцию помощью Обратите внимание, что , известная как «функция правдоподобия», является функцией(x1,,xn)XiX1,,XnΘΠ(x1,,xn)

Lx1,,xn:ΠR
L x 1 , , x n θ L
Lx1,,xn(θ)=i=1nfXiΘ(xiθ).
Lx1,,xnθ . В этой ситуации «после того, как у вас есть данные», вероятность содержит для конкретной рассматриваемой нами условной модели всю информацию о параметре содержащуюся в этом конкретном примере . Фактически, бывает, что является достаточной статистикой для .Lx1,,xnΘ(x1,,xn)Lx1,,xnΘ

Отвечая на ваш вопрос, чтобы понять различия между понятиями условной плотности и вероятности, имейте в виду их математические определения (которые явно различны: это разные математические объекты с разными свойствами), а также помните, что условная плотность -прибор "объект / концепция", в то время как вероятность - "после выборки". Я надеюсь, что все это также поможет вам ответить, почему байесовский вывод (используя ваш способ выражения, который я не считаю идеальным) выполняется «с использованием функции правдоподобия, а не условного распределения»: цель байесовского вывода состоит в том, чтобы чтобы вычислить апостериорное распределение, и для этого мы опираемся на наблюдаемые (известные) данные.


Я думаю, что дзен прав, когда он говорит, что вероятность и условная вероятность различны. В функции правдоподобия θ не является случайной величиной, поэтому она отличается от условной вероятности.
Мартин

2

Пропорциональность используется для упрощения анализа

Байесовский анализ обычно делается с помощью еще более простого изложения теоремы Байеса, где мы работаем только с точки зрения пропорциональности по отношению к интересующему параметру. Для стандартной модели IID с плотностью выборки мы можем выразить это как:f(X|θ)

p(θ|x)Lx(θ)p(θ)Lx(θ)i=1nf(xi|θ).

Это утверждение байесовского обновления работает с точки зрения пропорциональности по отношению к параметру . Он использует два упрощения пропорциональности: одно при использовании функции правдоподобия (пропорциональной плотности выборки) и одно сзади (пропорционально произведению правдоподобия и предшествующего значения). Поскольку апостериор является функцией плотности (в непрерывном случае), тогда нормирующее правило устанавливает мультипликативную константу, необходимую для получения действительной плотности (то есть, чтобы она интегрировалась в единицу).θ

Этот метод использования пропорциональности имеет то преимущество, что позволяет нам игнорировать любые мультипликативные элементы функций, которые не зависят от параметра . Это имеет тенденцию упрощать проблему, позволяя нам смести ненужные части математики и получить более простые утверждения механизма обновления. Это не математическое требование (поскольку правило Байеса работает и в непропорциональной форме), но оно упрощает наш мозг для крошечных животных.θ

Прикладной пример: рассмотрим модель IID с данными наблюдений . Для облегчения нашего анализа мы определяем статистику и , которые являются первыми двумя образцами моментов. Для этой модели у нас есть плотность выборки:X1,...,XnIID N(θ,1)x¯=1ni=1nxix¯¯=1ni=1nxi2

f(x|θ)=i=1nf(xi|θ)=i=1nN(xi|θ,1)=i=1n12πexp(12(xiθ)2)=(2π)n/2exp(12i=1n(xiθ)2).=(2π)n/2exp(n2(θ22x¯θ+x¯¯))=(2π)n/2exp(nx¯¯2)exp(n2(θ22x¯θ))

Теперь мы можем напрямую работать с этой плотностью выборки, если захотим. Но обратите внимание, что первые два члена в этой плотности являются мультипликативными константами, которые не зависят от . Раздражает необходимость отслеживать эти термины, поэтому давайте просто избавимся от них, поэтому у нас есть функция правдоподобия:θ

Lx(θ)=exp(n2(θ22x¯θ)).

Это немного упрощает ситуацию, так как нам не нужно отслеживать дополнительный термин. Теперь мы можем применить правило Байеса, используя его полную версию уравнения, включая интегральный знаменатель. Но опять же, это требует, чтобы мы отслеживали другую раздражающую мультипликативную константу, которая не зависит от (больше раздражает, потому что мы должны решить интеграл, чтобы получить ее). Итак, давайте просто применим правило Байеса в его пропорциональной форме. Используя сопряженный априорный с некоторым известным параметром точности , мы получаем следующий результат ( заполнив квадрат ):θθN(0,λ0)λ0>0

p(θ|x)Lx(θ)p(θ)=exp(n2(θ22x¯θ))N(θ|0,λ0)exp(n2(θ22x¯θ))exp(λ02θ2)=exp(12(nθ22nx¯θ+λ0θ2))=exp(12((n+λ0)θ22nx¯θ))=exp(n+λ02(θ22nx¯n+λ0θ))exp(n+λ02(θnn+λ0x¯)2)N(θ|nn+λ0x¯,n+λ0).

Итак, из этой работы мы видим, что апостериорное распределение пропорционально нормальной плотности. Поскольку задняя часть должна быть плотной, это означает, что задняя часть является той нормальной плотностью:

p(θ|x)=N(θ|nn+λ0x¯,n+λ0).

Следовательно, мы видим, что апостериорный параметр обычно распределен с апостериорным средним и дисперсией, определяемой как:θ

E(θ|x)=nn+λ0x¯V(θ|x)=1n+λ0.

Теперь полученное нами апостериорное распределение имеет константу интегрирования по фронту (которую мы легко можем найти, посмотрев на форму нормального распределения ). Но обратите внимание, что нам не нужно было беспокоиться об этой мультипликативной константе - вся наша работа удаляла (или вводила) мультипликативные константы всякий раз, когда это упрощало математику. Тот же самый результат может быть получен при отслеживании мультипликативных констант, но это намного сложнее.


0

Я думаю, что ответ Дзэн действительно говорит вам, как концептуально отличаются функция правдоподобия и общая плотность значений случайных величин. Математически, как функция от x s и θ, они одинаковы, и в этом смысле вероятность можно рассматривать как плотность вероятности. Разница, на которую вы указываете в формуле для апостериорного распределения Байеса, является просто нотационной разницей. Но тонкость разницы хорошо объясняется в ответе дзен.i

Эта проблема возникла в других вопросах, обсуждаемых на этом сайте, относительно функции вероятности. Также другие комментарии Къетила и Дилипа, кажется, подтверждают то, что я говорю.

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.