Есть пара правильных и строго правильных правил подсчета для данных подсчета, которые вы можете использовать. Правилами подсчета являются штрафы введенные с являющимся прогнозным распределением, и наблюдаемым значением. Они имеют ряд желательных свойств, в первую очередь то, что прогноз, который ближе к истинной вероятности, всегда будет получать меньше штрафов, и существует (уникальный) лучший прогноз, и это тот случай, когда прогнозируемая вероятность совпадает с истинной вероятностью. Таким образом, минимизация ожидания означает сообщение об истинных вероятностях. Смотрите также Википедия .P y s ( y , P )s(y,P)Pys(y,P)
Зачастую в качестве усредненных значений по всем прогнозируемым значениям
S=1n∑ni=1s(y(i),P(i))
Какое правило выбрать, зависит от вашей цели, но я приведу приблизительную характеристику, когда каждый из них подходит для использования.
В дальнейшем я использую для функции прогнозирующей массовой вероятности и для прогнозной кумулятивной функции распределения. А пробегает всю поддержку распределения счета (т.е. ). обозначаю функцию индикатора. и - это среднее и стандартное отклонение прогнозирующего распределения (которые обычно являются непосредственно оцененными величинами в моделях данных подсчета). f(y)Pr(Y=y)F(y)∑k0,1,…,∞Iμσ
Строго правильные правила подсчета очков
- Оценка Бриера : (стабильно для дисбаланса размера в категориальных предикторах)s(y,P)=−2f(y)+∑kf2(k)
- Оценка Давида-Себастьяни : (подходит для общего выбора модели прогнозирования; стабильно для дисбаланса размера в категориальных предикторах)s(y,P)=(y−μσ)2+2logσ
- Оценка отклонения : ( - нормализующий член, зависящий только от , в моделях Пуассона он обычно принимается за насыщенное отклонение; подходит для использования с оценками из рамки ML)s(y,P)=−2logf(y)+gygyy
- Логарифмическая оценка : (очень легко вычисляется; стабильно для дисбаланса размера в категориальных предикторах)s(y,P)=−logf(y)
- Оценка вероятности : (подходит для контрастирования различных прогнозов очень высоких показателей; подвержена дисбалансу размеров в категориальных предикторах)s(y,P)=∑k{F(k)−I(y≤k)}2
- Сферическая оценка : (стабильно для дисбаланса размера в категориальных предикторах)s(y,P)=f(y)∑kf2(k)√
Другие правила подсчета очков (не очень правильные, но часто используемые)
- Абсолютная оценка ошибки :(не правильно)s(y,P)=|y−μ|
- Квадратный показатель ошибки : (не совсем правильно; подвержен выбросам; подвержен дисбалансу размеров в категориальных предикторах)s(y,P)=(y−μ)2
- Пирсона нормализованы квадрат показатель ошибки : (строго говоря , не собственно, восприимчивы к выбросам, может быть использована для проверки , если проверка моделей , если усредненный балл очень отличается от 1; стабильно для размера дисбаланса в категориальных предикторах)s(y,P)=(y−μσ)2
Пример кода R для строго правильных правил:
library(vcdExtra)
m1 <- glm(Freq ~ mental, family=poisson, data=Mental)
# scores for the first observation
mu <- predict(m1, type="response")[1]
x <- Mental$Freq[1]
# logarithmic (equivalent to deviance score up to a constant)
-log(dpois(x, lambda=mu))
# quadratic (brier)
-2*dpois(x,lambda=mu) + sapply(mu, function(x){ sum(dpois(1:1000,lambda=x)^2) })
# spherical
- dpois(x,mu) / sqrt(sapply(mu, function(x){ sum(dpois(1:1000,lambda=x)^2) }))
# ranked probability score
sum(ppois((-1):(x-1), mu)^2) + sum((ppois(x:10000,mu)-1)^2)
# Dawid Sebastiani
(x-mu)^2/mu + log(mu)