Разница между наивным байесовским и многочленным наивным байесовским


29

Я имел дело с наивным байесовским классификатором раньше. В последнее время я читаю о многокомном наивном байесовском .

Также Задняя Вероятность = (Приоритет * Вероятность) / (Доказательства) .

Единственное главное отличие (при программировании этих классификаторов), которое я обнаружил между наивным байесовским и многочленным наивным байесовским, состоит в том, что

Наивный байесовский многовариант вычисляет вероятность быть подсчетом слова / токена (случайной величины), а наивный байесовский вычисляет вероятность того, что будет следующим:

введите описание изображения здесь

Поправьте меня если я ошибаюсь!


1
Вы найдете много информации в следующем pdf: cs229.stanford.edu/notes/cs229-notes2.pdf
B_Miner

Кристофер Д. Мэннинг, Прабхакар Рагхаван и Хинрих Шютце. « Введение в поиск информации ». 2009 год, глава 13, посвященная классификации текста и наивному байесовскому анализу, тоже хороша
Франк Дернонкур

Ответы:


43

Общий термин « Наивный байесовский» относится к сильным допущениям независимости в модели, а не к конкретному распределению каждого признака. Наивная байесовская модель предполагает, что каждая из функций, которые она использует, условно независима друг от друга, учитывая некоторый класс. Более формально, если я хочу вычислить вероятность наблюдения особенностей от до , заданных для некоторого класса c, в предположении Наивного Байеса выполняется следующее:f nе1еN

п(е1,,,,,еN|с)знак равноΠязнак равно1Nп(ея|с)

Это означает, что когда я хочу использовать наивную байесовскую модель для классификации нового примера, апостериорная вероятность гораздо проще работать с:

п(с|е1,,,,,еN)αп(с)п(е1|с),,,п(еN|с)

Конечно, эти предположения о независимости редко бывают верными, что может объяснить, почему некоторые называют модель «моделью Байеса идиота», но на практике модели наивного Байеса работают на удивление хорошо, даже в сложных задачах, где очевидно, что сильные предположения о независимости являются ложными.

До этого момента мы ничего не говорили о распределении каждой функции. Другими словами, мы оставили неопределенным. Термин « многокомиальный наивный байесовский» просто дает нам знать, что каждый является многочленным распределением, а не каким-либо другим распределением. Это хорошо работает для данных, которые можно легко преобразовать в счетчики, например, в слова в тексте.p ( f i | c )п(ея|с)п(ея|с)

Дистрибутив, который вы использовали с вашим наивным байесовским классификатором, - это Guassian pdf, так что, я думаю, вы могли бы назвать его Guassian Naive Bayes классификатор.

Таким образом, наивный байесовский классификатор является общим термином, который относится к условной независимости каждой из функций в модели, в то время как полиномиальный наивный байесовский классификатор является конкретным экземпляром наивного байесовского классификатора, который использует полиномиальное распределение для каждой из функций.

Ссылки:

Стюарт Дж. Рассел и Питер Норвиг. 2003. Искусственный интеллект: современный подход (2-е изд.). Пирсон Образование. Смотрите стр. 499 для ссылки на «идиота Байеса», а также общего определения наивной байесовской модели и ее предположений о независимости


Ссылки неработающие
ssoler

@ jlund3, спасибо за приятное объяснение. Как мы включаем информацию о распределении в наш классификатор? Я имею в виду, как изменяется формула p (c | f1, ..., fn) ∝p (c) p (f1 | c) ... p (fn | c) в зависимости от того, является ли это гассианским распределением по сравнению с мультимодальным
Дэвид

Спасибо за краткое объяснение, но я рекомендую книгу (Стюарт Дж. Рассел и Питер Норвиг. 2003. Искусственный интеллект: современный подход (2-е изд.)), На которую даны ссылки выше для получения дополнительных знаний о NB и методах искусственного интеллекта.
Мирани

число полиномиального распределения не является независимым. см. мой вопрос здесь: datascience.stackexchange.com/questions/32016/…
Ханан Штейнгарт

10

п(Икся|сJ)1яN1JК(я,J)п(Икся|сJ1)п(Икся|сJ2)

Полиномиальный Наивный Байес просто предполагает многочленное распределение для всех пар, что в некоторых случаях представляется разумным допущением, то есть для подсчета слов в документах.

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.