Хорошо, если у вас есть образец из распределения Парето с параметрами и (где - параметр нижней границы, а - параметр формы), логарифмическая вероятность этого образец является: m > 0 α > 0 m αИкс1, . , , , XNm > 0α > 0мα
журнал n( α ) + n α log( м ) - ( α + 1 ) ∑я = 1Nжурнал( Xя)
это монотонно возрастает в , поэтому максимальный максимальный показатель является наибольшим значением, которое согласуется с наблюдаемыми данными. Поскольку параметр определяет нижнюю границу носителя для распределения Парето, оптимумммм
м^= миняИкся
который не зависит от . Далее, используя обычные трюки исчисления, MLE для должно удовлетворятьααα
Nα+ n log( м^) - ∑я = 1Nжурнал(Xя) = 0
некоторая простая алгебра говорит нам ОМП являетсяα
α^= nΣNя = 1журнал( Xя/ м^)
Во многих важных смыслах (например, оптимальная асимптотическая эффективность в том смысле, что достигается нижняя граница Крамера-Рао), это лучший способ согласовать данные с распределением Парето. Приведенный ниже код R вычисляет MLE для данного набора данных X
.
pareto.MLE <- function(X)
{
n <- length(X)
m <- min(X)
a <- n/sum(log(X)-log(m))
return( c(m,a) )
}
# example.
library(VGAM)
set.seed(1)
z = rpareto(1000, 1, 5)
pareto.MLE(z)
[1] 1.000014 5.065213
Редактировать: Основываясь на комментариях @cardinal и I ниже, мы также можем заметить, что является обратной величиной среднего значения выборки , которые происходят с имеют экспоненциальное распределение. Следовательно, если у нас есть доступ к программному обеспечению, которое может соответствовать экспоненциальному распределению (что более вероятно, так как оно возникает во многих статистических задачах), то подгонка распределения Парето может быть достигнута путем преобразования набора данных таким образом и подгонки его экспоненциальному распределению в преобразованном масштабе. войти(Хя/ м )α^журнал( Xя/ м^)