Функция правдоподобия , определенные как вероятность события (набор данных х ) как функция от параметров модели thetas ;Exθ
L (θ;x)∝ P (Событие E; θ ) = P ( соблюдая x ; θ ) .
Поэтому нет предположения о независимости наблюдений. В классическом подходе нет определения независимости параметров, поскольку они не являются случайными величинами; некоторые связанные понятия могут быть идентифицируемостью , ортогональностью параметров и независимостью оценок максимального правдоподобия (которые являются случайными величинами).
Несколько примеров,
(1). Дискретный случай . является образец (независимый) дискретных наблюдений с P ( наблюдения х J ; & thetas ; ) > 0 , тоx=(x1,...,xn)P(observing xj;θ)>0
L(θ;x)∝∏j=1nP(observing xj;θ).
В частности, если , с известным N , имеемИксJ∼ бином ( N,θ)N
L(θ;x)∝∏j=1nθxj(1−θ)N−xj.
(2). Непрерывное приближение . Пусть быть образцом из непрерывного случайной величины X , с распределением F и плотностью F , с измерением ошибки е , это, вы наблюдаете множество ( х J - ε , х J + ϵ ) . потомx=(x1,...,xn)XFfϵ(xj−ϵ,xj+ϵ)
L(θ;x)∝∏j=1nP[observing (xj−ϵ,xj+ϵ);θ]=∏j=1n[F(xj+ϵ;θ)−F(xj−ϵ;θ)]
При мало, это может быть аппроксимировано ( с использованием среднего значения теоремы) путемϵ
L(θ;x)∝∏j=1nf(xj;θ)
Для примера с нормальным случаем взгляните на это .
(3). Зависимая и марковская модель . Предположим , что представляет собой набор наблюдений , возможно , зависимых и пусть F быть совместной плотности х , тоx=(x1,...,xn)fx
L(θ;x)∝f(x;θ).
Если дополнительно выполнено свойство Маркова , то
L(θ;x)∝f(x;θ)=f(x1;θ)∏j=1n−1f(xj+1|xj;θ).
Take also a look at this.