Несколько лет назад я написал статью об этом для моих студентов (на испанском языке), поэтому я могу попытаться переписать эти объяснения здесь. Я посмотрю на IRLS (итеративно переоцененные наименьшие квадраты) через серию примеров возрастающей сложности. Для первого примера нам нужна концепция семейства масштабов местоположения. Пусть - функция плотности с центром в нуле в некотором смысле. Мы можем построить семейство плотностей, определив
f ( x ) = f ( x ; µ , σ ) = 1е0
гдеσ>0- параметр масштаба, аμ- параметр местоположения. В модели ошибки измерения, где обычно термин ошибки моделируется как нормальное распределение, мы можем вместо этого нормального распределения использовать семейство масштабов местоположения, как построено выше. Когдаf0является стандартным нормальным распределением, приведенная выше конструкция дает семействоN(μ,σ).
е( х ) = е( х ; μ , σ) = 1σе0( х - μσ)
σ> 0μе0N ( μ , σ)
Теперь мы будем использовать IRLS на нескольких простых примерах. Сначала мы найдем оценки ML (максимальное правдоподобие) в модели
с плотностью
f ( y ) = 1
Y1, Y2, … , YNн.о.р.
распределение Коши семейства местоположений
µ (так что это семейство местоположений). Но сначала несколько обозначений. Взвешенная оценка наименьших квадратов для
μ определяется как
μ ∗ = ∑ n i = 1 w i y iе( у) = 1π11 + ( у- μ )2,Y∈ R ,
μμ
где
wi- некоторые веса. Мы видимчто ML оценкой
цможет быть выражен в той же форме, с
шIнекоторой функцией от остатков
epsiя=уя - М .
Функция правдоподобия определяется как
L(y;μ)=(1μ*= ∑Nя = 1весяYяΣNя = 1веся,
весяμвесяεя= уя- μ^,
а функция логарифмического правдоподобия задается как
l(y)=-nlog(π)- n ∑ i=1log(1+(yi-μ)2).
Его производная по
μравна
∂ l ( y )L ( у; μ ) = ( 1π)NΠя = 1N11 + ( уя- μ )2
л ( у) = - n log( π) - ∑я = 1Nжурнал( 1 + ( уя- μ )2) .
μ
где
εя=уя-М. Напишите
f0(ϵ)=1∂л ( у)∂μзнак равнознак равнознак равно0 - ∑ ∂∂μжурнал( 1 + ( уя- μ )2)- ∑ 2 ( уя- μ )1 + ( уя- μ )2⋅ ( - 1 )∑ 2 ϵя1 + ϵ2я
εя= уя- μ и
f ′ 0 (ϵ)=1е0( ϵ ) = 1π11 + ϵ2 , получаем
f ′ 0 (ϵ)е'0( ϵ ) = 1π- 1 ⋅ 2 ϵ( 1 + ϵ2)2
Мы находим
∂ l ( y )е'0( ϵ )е0( ϵ )= - 1 ⋅ 2 ϵ( 1 + ϵ2)211 + ϵ2= - 2 ϵ1 + ϵ2,
где мы использовали определение
wi= f ′ 0 ( ϵ i )∂л ( у)∂μзнак равнознак равнознак равно- ∑ ф'0( ϵя)е0( ϵя)- ∑ ф'0( ϵя)е0( ϵя)⋅ ( - 1εя) ⋅(- ϵя)∑ шяεя
Вспоминая, что
ϵi=yi-μ,получаем уравнение
∑wiyi=μ∑wi,
которое является уравнением оценки IRLS. Обратите внимание, что
веся= ф'0( ϵя)е0( ϵя)⋅ ( - 1εя) = - 2 ϵя1 + ϵ2я⋅ ( - 1εя) = 21 + ϵ2я,
εя= уя- μ∑ шяYя= μ ∑ wя,
- Веса всегда положительны.веся
- Если остаток большой, мы придаем меньшее значение соответствующему наблюдению.
μ^( 0 )
ε( 0 )я= уя- μ^( 0 )
вес( 0 )я= 21 + ϵ( 0 )я,
μ^μ^( 1 )= ∑ ш( 0 )яYя∑ ш( 0 )я,
ε( J )я= уя- μ^( J )
вес( J )я= 21 + ϵ( J )я,
J + 1μ^( j + 1 )= ∑ ш( J )яYя∑ ш( J )я,
μ^( 0 ), μ^( 1 ), … , Μ^( J ), ...
е( у) = 1σе0( у- μσ)Y1, Y2, … , YNεя= уя- μσ
л ( у) = - n2журнал( σ2) + ∑ log( ф0( уя- μσ) ).
ν= σ2∂εя∂μ= - 1σ
∂εя∂ν= ( уя- μ ) ( 1ν--√)'= ( уя- μ ) ⋅ - 12 σ3,
∂л ( у)∂μ= ∑ ф'0( ϵя)е0( ϵя)⋅ ∂εя∂μ= ∑ ф'0( ϵя)е0( ϵя)⋅ ( - 1σ) =- 1σ∑ ф'о( ϵя)е0( ϵя)⋅ ( - 1εя) (- ϵя)= 1σ∑ шяεя
σ2∂л ( у)∂νзнак равнознак равнознак равнознак равнознак равно- н21ν+ ∑ f'0( ϵя)е0( ϵя)⋅ ∂εя∂ν- н21ν+ ∑ f'0( ϵя)е0( ϵя)⋅ ( - ( уя- μ )2 σ3)- н21ν- 121σ2∑ ф'0( ϵя)е0( ϵя)⋅ ϵя- н21ν- 121ν∑ ф'0( ϵя)е0( ϵя)⋅ ( - 1εя) (- ϵя) ⋅ ϵя- н21ν+ 121ν∑ шяε2язнак равно!0.
σ2^= 1N∑ шя( уя- μ^)2,
Далее мы дадим числовой пример, используя R, для двойной экспоненциальной модели (с известным масштабом) и с данными y <- c(-5,-1,0,1,5)
. Для этих данных истинное значение оценщика ML равно 0. Начальное значение будет mu <- 0.5
. Один проход алгоритма
iterest <- function(y, mu) {
w <- 1/abs(y-mu)
weighted.mean(y,w)
}
с помощью этой функции вы можете поэкспериментировать с выполнением итераций «вручную». Затем итерационный алгоритм может быть выполнен
mu_0 <- 0.5
repeat {mu <- iterest(y,mu_0)
if (abs(mu_0 - mu) < 0.000001) break
mu_0 <- mu }
TКσ
веся= к + 1к + ϵ2я,
w ( ϵ ) = 1 - eε1 + еε⋅ - 1ε,
На данный момент я оставлю это здесь, я продолжу этот пост.