Примечание: я отправляю вопрос от моего бывшего студента, который не может публиковать сообщения самостоятельно по техническим причинам.
Для данного iid образца из распределения Вейбулла pdf
Примечание: я отправляю вопрос от моего бывшего студента, который не может публиковать сообщения самостоятельно по техническим причинам.
Для данного iid образца из распределения Вейбулла pdf
Ответы:
Я думаю, что ответ - да, если я правильно понял вопрос.
Напишите . Тогда ЭМ типа алгоритм итерации, начиная с, например , к = 1 , является
Е
М
Это особый случай (случай без цензуры и ковариат) итерации, предложенной для моделей пропорционального риска Вейбулла Эйткином и Клейтоном (1980). Это также можно найти в разделе 6.11 Aitkin et al (1989).
Aitkin, M. and Clayton, D., 1980. Подгонка экспоненциального распределения, распределения Вейбулла и экстремальных значений к сложным цензурированным данным о выживании с использованием GLIM. Прикладная статистика , с.156-163.
Айткин М., Андерсон Д., Фрэнсис Б. и Хинде Дж., 1989. Статистическое моделирование в GLIM . Издательство Оксфордского университета. Нью-Йорк.
Вейбулла MLE только численно разрешима:
Пусть сβ,
1) Likelihoodfunction :
лог-Likelihoodfunction :
2) MLE-проблема :
Plugging into the second 0-gradient condition:
This equation is only numerically solvable, e.g. Newton-Raphson algorithm. can then be placed into to complete the ML estimator for the Weibull distribution.
Хотя это старый вопрос, похоже, что в опубликованной здесь статье есть ответ: http://home.iitk.ac.in/~kundu/interval-censoring-REVISED-2.pdf
In this work the analysis of interval-censored data, with Weibull distribution as the underlying lifetime distribution has been considered. It is assumed that censoring mechanism is independent and non-informative. As expected, the maximum likelihood estimators cannot be obtained in closed form. In our simulation experiments it is observed that the Newton-Raphson method may not converge many times. An expectation maximization algorithm has been suggested to compute the maximum likelihood estimators, and it converges almost all the times.
In this case the MLE and EM estimators are equivalent, since the MLE estimator is actually just a special case of the EM estimator. (I am assuming a frequentist framework in my answer; this isn't true for EM in a Bayesian context in which we're talking about MAP's). Since there is no missing data (just an unknown parameter), the E step simply returns the log likelihood, regardless of your choice of . The M step then maximizes the log likelihood, yielding the MLE.
EM would be applicable, for example, if you had observed data from a mixture of two Weibull distributions with parameters and , but you didn't know which of these two distributions each observation came from.