Я изо всех сил пытаюсь сделать математическую связь между нейронной сетью и графической моделью.
В графических моделях идея проста: распределение вероятностей разлагается в соответствии с кликами на графике, причем потенциалы обычно имеют экспоненциальное семейство.
Есть ли аналогичная аргументация для нейронной сети? Можно ли выразить распределение вероятности по единицам (переменным) в ограниченной машине Больцмана или CNN как функцию их энергии или произведение энергий между единицами?
Кроме того, моделируется ли распределение вероятностей с помощью RBM или сети глубокого убеждения (например, с CNN) экспоненциального семейства?
Я надеюсь найти текст, который формализует связь между этими современными типами нейронных сетей и статистикой так же, как это сделали Джордан и Уэйнрайт для графических моделей с их графическими моделями, экспоненциальными семействами и вариационным выводом . Любые указатели были бы великолепны.
"using deep nets as factors in an MRF"
), сколько в том, как смотреть на глубокую сеть как вероятностный граф факторов. Когда Ян Ян ЛеКуна говорит "of course deep Boltzmann Machines are a form of probabilistic factor graph themselves"
, мне интересно увидеть эту связь математически.
https://distill.pub/2017/feature-visualization/
( Как нейронные сети формируют понимание изображений ), в том, что сложное изображение имеет компоненты компонентов, представленные узлами скрытого слоя. Веса могут «изменять» топологию недискретным образом. Хотя я этого не видел, некоторые методы могут включать факторы усадки для удаления краев и, следовательно, для изменения исходной топологии