Кто-нибудь решил упражнение PTLOS 4.1?


19

Это упражнение дается в теории вероятностей: Логика науки Эдвин Джейнс, 2003. Существует частичное решение здесь . Я разработал более общее частичное решение, и мне было интересно, если кто-то еще решил его. Я подожду немного, прежде чем опубликовать свой ответ, чтобы дать другим возможность.

Итак, предположим, что у нас есть n взаимоисключающая и исчерпывающая гипотеза, обозначаемая Hi(i=1,,n) . Далее предположим, что у нас естьнаборов данных, обозначаемых. Отношение правдоподобия для i-й гипотезы определяется как:д жmDj(j=1,,m)

LR(Hi)=P(D1D2,Dm|Hi)P(D1D2,Dm|H¯i)

Обратите внимание, что это условные вероятности. Теперь предположим , что для данного г - й гипотезы Hi в m наборы данных являются независимыми, так что мы имеем:

P(D1D2,Dm|Hi)=j=1mP(Dj|Hi)(i=1,,n)Condition 1

Теперь было бы весьма удобно, если бы знаменатель также учитывал эту ситуацию, чтобы мы имели:

P(D1D2,Dm|H¯i)=j=1mP(Dj|H¯i)(i=1,,n)Condition 2

Поскольку в этом случае отношение правдоподобия будет разделено на произведение меньших факторов для каждого набора данных, так что мы имеем:

LR(Hi)=j=1mP(Dj|Hi)P(Dj|H¯i)

Таким образом, в этом случае каждый набор данных будет «голосовать за Hi » или «голосовать против Hi » независимо от любого другого набора данных.

Упражнение состоит в том, чтобы доказать, что если (более двух гипотез), то нет такого нетривиального способа, которым этот факторинг может происходить. То есть, если вы предполагаете, что условие 1 и условие 2 выполняются, то самое большее один из факторов: P ( D 1 | H i )n>2 отличается от 1, иследовательнотолько один набор данныхбудет способствовать отношения правдоподобия.

P(D1|Hi)P(D1|H¯i)P(D2|Hi)P(D2|H¯i)P(Dm|Hi)P(Dm|H¯i)

Я лично нашел этот результат довольно захватывающим, потому что он в основном показывает, что тестирование множественных гипотез - не что иное, как серия тестов двоичных гипотез.


Я немного смущен индексом на ; является ˉ Н я = Arg макс ч Н я Р ( D 1 ,H¯i ? Или это ˉ H i = arg max h { H 1 , , H n } P ( D 1 , D m | h )H¯i=argmaxhHiP(D1,Dm|h)H¯i=argmaxh{H1,,Hn}P(D1,Dm|h)? Кажется, это должно быть последнее, но тогда я не уверен, почему индекс. Или, может быть, я что-то упускаю полностью :)
JMS

@JMS - обозначает логическое утверждение « H я ложно», или что одна из другой гипотезы верно. Таким образом , в «булевой алгебре» мы имеем ¯ HH¯iHi (потому что гипотеза являются исключительными и исчерпывающим)H¯iH1+H2++Hi1+Hi+1++Hn
probabilityislogic

Я чувствую, что должно быть более интуитивное решение, чем алгебра, приведенная в частичном решении Сандерса. Если данные являются независимыми с учетом каждой из гипотез, то они сохраняются при изменении априорных гипотез. И как-то, результат в том, что то же самое должно применяться для заключения ...
charles.y.zheng

@ Чарльз - я точно знаю, что ты чувствуешь. Я думал, что мог бы получить это, используя некоторую качественную несогласованность (Reductio ad absurdum), но я не мог сделать это. Я мог бы расширить математику Сандера, хотя. И это условие 2, которое является «изворотливым» с точки зрения того, что означает результат.
вероятностная

@probabilityislogic «это в основном показывает, что тестирование множественных гипотез - не что иное, как серия тестов двоичных гипотез». Пожалуйста, не могли бы вы расширить это предложение? Читая страницу 98 из книги Джейнса, я понимаю, что вы можете сократить тестирование на тестирование H 1 по отношению друг к другу и затем каким-то образом нормализовать, чтобы получить апостериорное значение для H 1 , но я не понимаю, почему это следовало бы из результатов Упражнения 4.1. H1,,HnH1H1
Мартин Дроздик

Ответы:


7

Причина, по которой мы приняли уравнение 4.28 (в книге ваше условие 1) заключалось в том, что мы предполагали, что вероятность данных при определенной гипотезе и исходная информация X независимы, другими словами, для любых D i и D j при i j :HaXDiDjij

Невозможность расширения вне двоичного случая может поэтому обсуждаться следующим образом: если мы предполагаем, что уравнение 1 истинно, верно ли уравнение 2?

P(Di|DjHaX)=P(Di|HaX)(1)

Сначала давайте посмотрим на левую часть уравнения ( 2 ) , используя правило умножения:

P(Di|DjHa¯X)=?P(Di|Ha¯X)(2)

Так как п гипотезы { H 1 ... H п } предполагаются взаимно исключающими и исчерпывающими, можно записать: ¯ Н = Σ б Н Ь So eq.3 становится: Р ( Д я |

P(Di|DjHa¯X)=P(DiDjHa¯|X)P(DjHa¯|X)(3)
n{H1Hn}
Ha¯=baHb
Для случая, когда у нас есть только две гипотезы, суммирования удаляются (поскольку существует только одинba), равные члены в знаменателе и знаменателе,P(DJHб|X), компенсируются и eq.2 доказано правильным, такHб=¯ H . Следовательно, уравнение 4.29 можно вывести из уравнения 4.28 в книге. Но когда у нас более двух гипотез, этого не происходит, например, если у нас есть три гипотезы:
P(Di|DjHa¯X)=baP(Di|DjHbX)P(DjHb|X)baP(DjHb|X)=baP(Di|HbX)P(DjHb|X)baP(DjHb|X)
baP(DjHb|XHb=Ha¯ , уравнение выше становится: P ( D i | D j ¯ H 1 X ) = P ( D i | H 2 X ) P ( D j H 2 | X ) + P ( D i | H 3 X ) P ( D j H 3 |{H1,H2,H3} Другими словами: P(
P(Di|DjH1¯X)=P(Di|H2X)P(DjH2|X)+P(Di|H3X)P(DjH3|X)P(DjH2|X)+P(DjH3|X)
Единственный способ, которым это уравнение может дать уравнение 2, состоит в том, что оба знаменателя равны 1, то есть обе дроби в знаменателях должны равняться нулю. Но это невозможно.
P(Di|DjH1¯X)=P(Di|H2X)1+P(DjH3|X)P(DjH2|X)+P(Di|H3X)1+P(DjH2|X)P(DjH3|X)

1
Я думаю, что четвертое уравнение неверно. Мы должны иметь P(DiDjHb|X)=P(DiHB|X)P(Dj|HbX)

Спасибо большое, вероятно, логично, я смог исправить решение. Что ты думаешь сейчас?
астробой

Я просто не понимаю, как Джейнс говорит: «Те, кто не различает логическую независимость и причинную независимость, полагают, что (4.29) всегда верно».
астробой

Я думаю, что нашел ответ на свой последний комментарий: сразу после предложения выше Джейнс говорит: «Только при условии, что нет DiDj

DiDj

1

Итак, вместо того чтобы пойти и заново вывести уравнение Сандера (5), я просто изложу его здесь. Условия 1 и 2 подразумевают следующее равенство:

j=1m(kihkdjk)=(kihk)m1(kihkj=1mdjk)
djk=P(Dj|Hk,I)hk=P(Hk|I)

m=2D1(1)D1D2(1)D2D3Dmm=2

(kihkd1k)(lihld2l)=(kihk)(lihld1ld2l)

kilihkhld1kd2l=kilihkhld1ld2l

kilihkhld2l(d1kd1l)=0(i=1,,n)

(d1ad1b)k=al=bk=bl=aa,bid2bd2aiii=1a=1,b=2b=1,a=2i=3

l>khkhl(d2ld2k)(d1kd1l)=0

hin1<nn1

l>k(d2ld2k)(d1kd1l)=0

n(n1)2djk=djlj=1j=2(k,l)djk=djln1j1,,ndj1=dj2==dj,n1=dj,n2

n(n1)212×n(n1)2=n(n1)4j=1j=2n>4n1n=4n=3n1dj1=dj2==dj,n1=dj,nn=2

P(Dj|H¯i)=kidjkhkkihk=djikihkkihk=dji=P(Dj|Hi)

P(D1(1)|Hi)P(D1(1)|H¯i)=P(D1|Hi)P(D1|H¯i)=1 ORP(D2(1)|Hi)P(D2(1)|H¯i)=P(D2D3,Dm|Hi)P(D2D3,Dm|H¯i)=1

Чтобы завершить доказательство, обратите внимание, что если второе условие выполнено, результат уже доказан, и только одно отношение может отличаться от 1. Если первое условие выполнено, то мы можем повторить приведенный выше анализ путем перемаркировки D1(2)D2D2(2)D3,DmD1,D2D2D1D2не способствует удержанию и так далее. Таким образом, только один набор данных может вносить вклад в отношение правдоподобия, когда выполняются условие 1 и условие 2, и существует более двух гипотез.

dj1=dj2dj1=dj3dj2=dj3djk=djlk,l(1,2,3)n=4j(1,2),(2,3),(1,3)(1,4),(2,4),(3,4)(1,2,3,4)


Я начинаю сомневаться в точности этого доказательства. Результат в математике Сондерса подразумевает толькоN нелинейные ограничения на dJК, Это делаетdJК иметь только N степени свободы вместо 2N, Однако, чтобы добраться доN(N-1)2условия другой аргумент требуется.
вероятностная

0

Для справки, вот несколько более обширное доказательство . Он также содержит некоторую справочную информацию. Может быть, это полезно для других, изучающих тему.

Основная идея доказательства состоит в том, чтобы показать, что условия 1 и 2 Джейнса подразумевают, что

P(Dmk|HiX)=P(Dmk|X),
for all but one data set mk=1,,m. It then shows that for all these data sets, we also have
P(Dmk|H¯iX)=P(Dmk|X).
Thus we have for all but one data set,
P(Dmk|HiX)P(Dmk|H¯iX)=P(Dmk|X)P(Dmk|X)=1.
The reason that I wanted to include the proof here is that some of the steps involved are not at all obvious, and one needs to take care not to use anything else than conditions 1 and 2 and the product rule (as many of the other proofs implicitly do). The link above includes all these steps in detail. It is on my Google Drive and I will make sure it stays accessible.


Welcome to Cross Validated. Thank you for your answer. Can you please edit you answer to expand it, in order to include the main points of the link you provide? It will be more helpful both for people searching in this site and in case the link breaks. By the way, take the opportunity to take the Tour, if you haven't done it already. See also some tips on How to Answer, on formatting help and on writing down equations using LaTeX / MathJax.
Ertxiem - reinstate Monica

Thanks for your comment. I edited the post and sketched the main steps of the proof.
dennis
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.