νT
νT
set.seed(1234)
n <- 10
x <- rt(n, df=2.5)
make_loglik <- function(x)
Vectorize( function(nu) sum(dt(x, df=nu, log=TRUE)) )
loglik <- make_loglik(x)
plot(loglik, from=1, to=100, main="loglikelihood function for df parameter", xlab="degrees of freedom")
abline(v=2.5, col="red2")
N
Давайте попробуем некоторые симуляции:
t_nu_mle <- function(x) {
loglik <- make_loglik(x)
res <- optimize(loglik, interval=c(0.01, 200), maximum=TRUE)$maximum
res
}
nus <- replicate(1000, {x <- rt(10, df=2.5)
t_nu_mle(x) }, simplify=TRUE)
> mean(nus)
[1] 45.20767
> sd(nus)
[1] 78.77813
Отображение оценки очень нестабильно (глядя на гистограмму, значительная часть оценочных значений находится на верхнем пределе, заданном для оптимизации 200).
Повторяя с большим размером выборки:
nus <- replicate(1000, {x <- rt(50, df=2.5)
t_nu_mle(x) }, simplify=TRUE)
> mean(nus)
[1] 4.342724
> sd(nus)
[1] 14.40137
что намного лучше, но среднее значение все еще намного выше истинного значения 2,5.
Затем помните, что это упрощенная версия реальной проблемы, где также необходимо оценить параметры местоположения и масштаба.
Tν