Проще говоря, без каких-либо математических символов, предшествующий означает первоначальные представления о событии с точки зрения распределения вероятностей . Затем вы настраиваете эксперимент и получаете некоторые данные, а затем «обновляете» свои убеждения (и, следовательно, распределение вероятностей) в соответствии с результатами эксперимента (апостериорное распределение вероятностей).
Пример:
Предположим, нам дали две монеты. Но мы не знаем, какая монета подделка. Монета 1 является беспристрастной (HEADS и TAILS имеют 50% вероятности), а Coin 2 является предвзятой, скажем, мы знаем, что она дает HEADS с вероятностью 60%. Математически:
Учитывая, что у нас есть ГОЛОВЫ, вероятность того, что это Монета 1, равна 0,4 а вероятность того, что это Монета 2, составляет 0,6 p ( H | C o i n 2 ) = 0,6
p ( H| Со я н1) = 0,4
p ( H| Со я н2) = 0,6
Итак, это все, что мы знаем, прежде чем приступить к эксперименту.
Теперь мы собираемся выбрать монетку, чтобы бросить ее, и на основе информации о том, что у нас есть (H или T), мы будем угадывать, какую монету мы выбрали (Coin 1 или Coin 2).
p ( Cо я н1) = p ( Cо я н2) = 0,5
p ( Cо я н1| ЧАС) = p ( H| Со я н1) p ( Cо я н1)p ( H| Со я н1) p ( Cо я н1) + p ( H| Со я н2) p ( Cо я н2)= 0,4 × 0,50,4 × 0,5 + 0,6 × 0,5= 0,4
p ( Cо я н2| ЧАС) = p ( H| Со я н2) p ( Cо я н2)p ( H| Со я н1) p ( Cо я н1) + p ( H| Со я н2) p ( Cо я н2)= 0,6 × 0,50,4 × 0,5 + 0,6 × 0,5= 0,6
0,5
Это основной принцип байесовского вывода и статистики, используемых в машинном обучении.