Недавно я прочитал несколько статей о байесовской нейронной сети (BNN) [Neal, 1992] , [Neal, 2012] , которая дает вероятностное соотношение между входом и выходом в нейронной сети. Обучение такой нейронной сети происходит через MCMC, который отличается от традиционного алгоритма обратного распространения.
Мой вопрос: в чем преимущество использования такой нейронной сети? В частности, не могли бы вы привести некоторые примеры, которые лучше соответствуют BNN, а не NN?