В следующем коде я выполняю логистическую регрессию для сгруппированных данных, используя glm, и «вручную», используя mle2. Почему функция logLik в R дает мне вероятность логирования logLik (fit.glm) = - 2.336, отличную от той, что logLik (fit.ml) = - 5.514, которую я получаю вручную?
library(bbmle)
#successes in first column, failures in second
Y <- matrix(c(1,2,4,3,2,0),3,2)
#predictor
X <- c(0,1,2)
#use glm
fit.glm <- glm(Y ~ X,family=binomial (link=logit))
summary(fit.glm)
#use mle2
invlogit <- function(x) { exp(x) / (1+exp(x))}
nloglike <- function(a,b) {
L <- 0
for (i in 1:n){
L <- L + sum(y[i,1]*log(invlogit(a+b*x[i])) +
y[i,2]*log(1-invlogit(a+b*x[i])))
}
return(-L)
}
fit.ml <- mle2(nloglike,
start=list(
a=-1.5,
b=2),
data=list(
x=X,
y=Y,
n=length(X)),
method="Nelder-Mead",
skip.hessian=FALSE)
summary(fit.ml)
#log likelihoods
logLik(fit.glm)
logLik(fit.ml)
y <- Y
x <- X
n <- length(x)
nloglike(coef(fit.glm)[1],coef(fit.glm)[2])
nloglike(coef(fit.ml)[1],coef(fit.ml)[2])
3
Распространенной причиной таких различий является тот факт, что вероятность определяется только с точностью до мультипликативной константы : « Точнее, функция вероятности - это любой представитель из класса эквивалентных функций, где константа пропорциональности не может зависеть от и должна быть одинаковой для всех функций правдоподобия, используемых в любой сравнение.
—
Glen_b
"Логарифмическая правдоподобие может, в свою очередь, быть смещена на произвольную постоянную. ... (ctd)
(ctd) ... Это не значит, что это объяснение этого конкретного различия, но это общая причина различий в том, как разные функции дают разные вероятности.
—
Glen_b
Я неправильно предположил, что вероятность журнала была определена с ядром PDF и поэтому была уникальной для этой проблемы.
—
Том
Однако это стоит исследовать, потому что иногда объяснение - это нечто другое.
—
Glen_b