Наивный байесовский предиктор делает свои прогнозы, используя эту формулу:
где - нормализующий фактор. Это требует оценки параметров P ( X i = x i | Y = y ) по данным. Если мы сделаем это с помощью k -smoothing, то получим оценку
где есть возможных значений для X i . Я в порядке с этим. Тем не менее, для предварительного мы имеем
где есть примеров в наборе данных. Почему бы нам не сгладить приор? Или , скорее, у нас гладкие до? Если так, какой параметр сглаживания мы выбираем? Кажется, немного глупо также выбирать k , так как мы делаем другой расчет. Есть ли консенсус? Или это не имеет большого значения?