Понимание теории d-разделения в причинных байесовских сетях


15

Я пытаюсь понять логику d-разделения в каузальных байесовских сетях. Я знаю, как работает алгоритм, но я не совсем понимаю, почему «поток информации» работает так, как указано в алгоритме.

введите описание изображения здесь

Например, на графике выше, давайте подумаем, что нам дан только X, и никакой другой переменной не наблюдалось. Затем по правилам d-разделения поток информации от X к D:

  1. X влияет на A, который является . Это нормально, поскольку A вызывает X, и если мы знаем о влиянии X, это влияет на наше убеждение относительно причины A. Информационные потоки.P(A)P(A|X)

  2. X влияет на B, который есть . Это нормально, так как A изменилось благодаря нашим знаниям о X, изменение в A также может повлиять на наши убеждения относительно его причины, B.P(B)P(B|X)

  3. X влияет на C, который является . Это нормально, потому что мы знаем, что на B оказывают влияние наши знания о его косвенном влиянии, X, и поскольку B смещен на X, это будет влиять на все прямые и косвенные эффекты B. C - это прямое влияние B, и на него влияют наши знания о X.P(C)P(C|X)

Ну, до этого момента у меня все в порядке, поскольку поток информации происходит в соответствии с интуитивно понятными причинно-следственными связями. Но я не понимаю особого поведения так называемых V-структур или коллайдеров в этой схеме. В соответствии с теорией d-разделения, B и D являются частыми причинами C на приведенном выше графике, и это говорит о том, что, если мы не наблюдали C или любого из его потомков, информация о потоке из X блокируется в C. Хорошо, хорошо но мой вопрос почему?

Из вышеперечисленных трех шагов, начиная с X, мы увидели, что на C влияют наши знания о X, и поток информации происходил в соответствии с причинно-следственной связью. Теория d-разделения говорит, что мы не можем перейти от C к D, так как C не наблюдается. Но я думаю, что, поскольку мы знаем, что С является предвзятым и D является причиной С, на D тоже следует повлиять, в то время как теория говорит обратное. Я явно что-то упускаю из своего мышления, но не вижу, что это такое.

Поэтому мне нужно объяснение, почему поток информации блокируется на C, если C не наблюдается.


Он не течет от X к D, если только наблюдается X. Вы заявляете это чуть ниже картинки. (Хотя вы правильно опишите это ниже).
Ziggystar

Я уже знаю это, что информационный поток заблокирован в C, где у нас есть "V-структура". То, что я хочу знать, это почему; почему V-структура блокирует поток информации, когда мы не наблюдаем C, с точки зрения причинно-следственной связи.
Уфук Джан Бичичи

Ответы:


6

Разве не интуитивно понятно, что вы не можете рассуждать от причины к ненаблюдаемому следствию к другой причине? Если дождь (B) и разбрызгиватель (D) являются причинами влажного грунта (C), то вы можете утверждать, что видение дождя подразумевает, что земля, вероятно, влажная, и по-прежнему полагать, что дождеватель должен быть включен, так как земля мокрый?! Конечно, нет. Вы утверждали, что земля была мокрой из-за дождя - вы не можете искать дополнительные причины!

Если вы наблюдаете влажную почву, конечно, ситуация меняется. Теперь вы можете рассуждать от одной причины к другой, как объясняет Фрэнк.


4

Давайте на минутку забудем о X и рассмотрим только коллайдер из B, C и D. Причина, по которой v-структура может блокировать путь между B и D, заключается в том, что, как правило, если у вас есть две независимые случайные величины (B и D), которые влияют на один и тот же результат (C), то знание результата может позволить вам сделать выводы о взаимосвязи между случайными переменными, что позволит обеспечить поток информации.

п(В|D)п(В)п(D|В)п(D)). Следовательно, зная, что газон мокрый, разблокирует дорожку и делает зависимость B и D.

Чтобы лучше это понять, было бы полезно взглянуть на парадокс Берксона , который описывает ту же ситуацию.


1) Мне трудно понять, что такое независимая причина, прежде чем что-либо определять относительно D-разделения. Многие авторы определяют D-разделение, используя интуитивно понятные причинно-следственные связи. Я пытаюсь построить систему рассуждений, основанную на том, что я читаю из разных источников, и на основе моей интуиции, чтобы я мог смириться с этой теоремой. Это похоже на следующее: «Если не наблюдается никакой переменной, кроме X, то знание о X может влиять на эффекты X (все потомки), прямые или косвенные причины X (предки) и все другие эффекты причин X».
Уфук Джан Бичичи

2) Я обосновываю эту мысль следующим образом: A) X может влиять на его прямые и косвенные эффекты, очевидно, поскольку разные значения X будут вызывать разные причины. Б) Х может влиять на его прямые и косвенные причины, так как, если мы наблюдаем эффект, мы можем получить новую информацию о причинах, используя диагностический подход. C) X влияет на другие эффекты (исключая себя) всех его прямых и косвенных причин, поскольку знание о X изменило наши представления об этих причинах, что, в свою очередь, влияет на все последствия. Я пытаюсь интерпретировать такие причинно-следственные байесовские сети по этой схеме. Это правильно для начала?
Уфук Джан Бичичи

3) Как будто я пытаюсь сформировать интуитивно понятный шаблон «Информационный поток», чтобы понять поведение переменных в зависимости от независимости. С этим паттерном я не вижу, что такое независимая причина, и именно здесь я застрял. Очевидно, что я что-то упускаю, или я могу быть совершенно не прав с этим образцом мышления.
Уфук Джан Бичичи

Я думаю, что мой первоначальный ответ немного вводил в заблуждение, потому что я назвал B и D «причинами» (сейчас исправлено). Информационный поток - это концепция, которая связана с наблюдениями, а не с причинными вмешательствами. Как вы знаете, две случайные переменные являются независимыми, если наблюдение одной не дает вам информации о второй. Ваши заявления, кажется, объединяют наблюдения и умозаключения. Наблюдение X позволяет нам корректировать наш вывод его родителей (утверждение A) и его прямые причины, но если v-структура блокирует путь, то мы не можем корректировать вывод для косвенных причин, по причинам, описанным выше.
FrankD

1

Ну, до этого момента у меня все в порядке, поскольку поток информации происходит в соответствии с интуитивно понятными причинно-следственными связями. Но я не понимаю особого поведения так называемых V-структур или коллайдеров в этой схеме.

Тогда крепкий орешек - это V-структура. Я хотел бы проиллюстрировать различие между вероятностью переменной S, обусловленной только наблюдением эффекта, и влиянием наблюдения другой переменной D, которая не зависит от S в той же ситуации, на вымышленном примере.

Допустим, кто-то проходит курс, скажем, линейную алгебру. Если он может сдать его, в основном зависит от сложности экзамена. Обозначим событие прохождения курса через P, передавая как 1 и 0 в противном случае; и сложность экзамена как D, сложная как 1 и простая как 0. И что-то бессмысленное может также оказать влияние на его производительность или результат, скажем, сингулярность происходит, и ему промывают мозги машина, а затем решает не делать Сдавать экзамен. Обозначим это событие через S, и его вероятность равна 0,0001. Это кажется невозможным, но по определению его шанс не должен быть нулевым.

Следовательно, теперь у нас есть график формы v-структуры:

 D   S
  | |
 \| |/ 
   P  

п(¬п|S)знак равно0.999999п(п|S)знак равно0.000001

| d0   | d1      |      
|:-----|--------:|   
| 0.5  | 0.5     |  

| s0     | s1      |      
|:-------|--------:|   
| 0.9999 | 0.0001  |

| S     | D    | P(p0|S,D) | P(p1|S,D) |  
|:------|-----:|----------:|----------:|
|s0     | d0   |   0.20    |   0.80    |
|s0     | d1   |   0.90    |   0.10    |
|s1     | d0   |   0.999999|   0.000001|
|s1     | d1   |   0.999999|   0.000001| 

п(S|п)п(S|п,D)

1) Если мы не знаем результат, мы можем рассчитать вероятность возникновения сингулярности, учитывая, что курс прост.

п(S|¬D)знак равноп(S,п|¬D)+п(S,¬п|¬D)знак равноп(Sзнак равно1,пзнак равно1,Dзнак равно0)п(Dзнак равно0)+п(Sзнак равно1,пзнак равно0,Dзнак равно0)п(Dзнак равно0)знак равноп(Sзнак равно1)п(Dзнак равно0|Sзнак равно1)п(пзнак равно1|Dзнак равно0,Sзнак равно1)п(Dзнак равно0)+п(Sзнак равно1)п(Dзнак равно0|Sзнак равно1)п(пзнак равно0|Dзнак равно0,Sзнак равно1)п(Dзнак равно0)знак равноп(Sзнак равно1)п(Dзнак равно0|Sзнак равно1)п(Dзнак равно0)знак равноп(Sзнак равно1)п(Dзнак равно0)п(Dзнак равно0)знак равноп(Sзнак равно1)знак равно0,0001

Как вы можете видеть выше, это не имеет значения, сдан экзамен или нет. Что приходит, как это должно прийти. Это можно рассматривать как предельную вероятность над P.

И мы также можем определить вероятность того, что сингулярность произойдет, если студент не сдает экзамен:

п(S,|¬п)знак равноп(S,¬п)п(¬п)знак равноп(S,¬п,D)+п(S,¬п,¬D)п(¬п)знак равноп(¬п|S,D)п(S)п(D)+п(¬п|S,¬D)п(S)п(¬D)ΣS,Dп(¬п|S,D)п(S)п(D)знак равно0.0001818

Зная, что парень не сдает экзамен, мы можем догадаться, что ему может «промыть мозги» с помощью машины, - это 0,0001818, что немного больше, чем когда мы этого не знаем.

2) Но что если мы узнаем, что парень провалил экзамен и экзамен проходит легко?

п(S,|¬п,¬D)знак равноп(Sзнак равно1,пзнак равно0,Dзнак равно0)п(пзнак равно0,Dзнак равно0)знак равноп(пзнак равно0|Sзнак равно1,Dзнак равно0)п(Sзнак равно1)п(Dзнак равно0)п(пзнак равно0|Sзнак равно1,Dзнак равно0)п(Sзнак равно1)п(Dзнак равно0)+п(пзнак равно0|Sзнак равно0,Dзнак равно0)п(Sзнак равно0)п(Dзнак равно0)знак равно0.999999×0,0001×0,50.2×0,9999×0,5+0.999999×0,0001×0,5знак равно0.0004998

И вот, изменение намного больше, чем мы знаем, он не сдал экзамен. Тогда мы видим, чтоп(S|п)п(S|п,D) мы можем сделать вывод, что SD|пя(п(п,S,D)) что означает, что D может влиять на S через P.

Пусть этот подробный вывод будет полезен.

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.