Предположим, что является вектором, который, как предполагается, имеет многомерное распределение неизвестного среднего и известной дисперсионно-ковариационной матрицы . Мы наблюдаем из этого распределения и хотим предсказать из этой информации, используя несмещенный линейный предиктор:(Z0,Z1,…,Zn)(μ,μ,…,μ)Σ(z1,z2,…,zn) z0
- Линейный означает, что прогноз должен иметь форму для определения коэффициентов . Эти коэффициенты могут максимально зависеть от того, что известно заранее, а именно от записей .z0^=λ1z1+λ2z2+⋯+λnznλiΣ
Этого предиктора также можно считать случайной величиной .Z0^=λ1Z1+λ2Z2+⋯+λnZn
- Несмещенный означает, что ожидание равно его (неизвестному) среднему значению .Z0^μ
Запись вещей дает некоторую информацию о коэффициентах:
μ=E[Z0^]=E[λ1Z1+λ2Z2+⋯+λnZn]=λ1E[Z1]+λ2E[Z2]+⋯+λnE[Zn]=λ1μ+⋯+λnμ=(λ1+⋯+λn)μ.
Вторая строка обусловлена линейностью ожидания, а все остальное - простая алгебра. Поскольку предполагается, что эта процедура работает независимо от значения , очевидно, что коэффициенты должны суммироваться в единицу. Записывая коэффициенты в векторной записи , это можно аккуратно записать .μλ=(λi)′1λ=1
Среди множества таких непредвзятых линейных предикторов мы ищем такой, который как можно меньше отклоняется от действительного значения , измеренного в среднем квадрате комнаты. Это опять-таки расчет. Он опирается на билинейность и симметрию ковариации, чье приложение отвечает за суммирование во второй строке:
E[(Z0^−Z0)2]=E[(λ1Z1+λ2Z2+⋯+λnZn−Z0)2]=∑i=1n∑j=1nλiλjvar[Zi,Zj]−2∑i=1nλivar[Zi,Z0]+var[Z0,Z0]=∑i=1n∑j=1nλiλjΣi,j−2∑i=1nλiΣ0,i+Σ0,0.
Откуда коэффициенты могут быть получены путем минимизации этой квадратичной формы с учетом (линейного) ограничения . Это легко решается с использованием метода множителей Лагранжа, в результате чего получается линейная система уравнений, «уравнения Кригинга».1λ=1
В приложении - пространственный случайный процесс («случайное поле»). Это означает, что для любого заданного набора фиксированных (не случайных) местоположений вектор значений в этих местоположениях является случайным с каким-то многомерным распределением. Напишите и примените предыдущий анализ, предполагая, что средства процесса во всех местах одинаковы, и предполагая ковариационную матрицу значений процесса при этих локация известна с уверенностью.Zx0,…,xnZ(Z(x0),…,Z(xn))Zi=Z(xi)n+1xin+1
Давайте интерпретировать это. При допущениях (включая постоянное среднее и известную ковариацию) коэффициенты определяют минимальную дисперсию, достижимую любой линейной оценкой. Давайте назовем это отклонение («ОК» для «обычного кригинга»). Это зависит исключительно от матрицы . Это говорит нам о том, что если бы нам пришлось многократно из и использовать эти коэффициенты для прогнозирования значений из оставшихся значений каждый раз, тоσ2OKΣ(Z0,…,Zn)z0
В среднем наши прогнозы были бы правильными.
Как правило, наши прогнозы будут отклоняться около от фактических значений .z0σOKz0
Необходимо сказать гораздо больше, прежде чем это можно будет применить к практическим ситуациям, таким как оценка поверхности по точечным данным: нам нужны дополнительные предположения о том, как статистические характеристики пространственного процесса изменяются от одного местоположения к другому и от одной реализации к другой (даже если на практике обычно доступна только одна реализация). Но этого изложения должно быть достаточно, чтобы понять, как поиск «лучшего» непредвзятого линейного предиктора («BLUP») напрямую ведет к системе линейных уравнений.
Кстати, кригинг, как это обычно практикуется, не совсем совпадает с оценкой наименьших квадратов, потому что оценивается в предварительной процедуре (известной как «вариография») с использованием тех же данных. Это противоречит предположениям этого вывода, который предполагал, что была известна (и тем более независима от данных). Таким образом, с самого начала в кригинге заложены некоторые концептуальные и статистические недостатки. Вдумчивые практикующие всегда знали об этом и находили различные творческие способы (пытаться) оправдать несоответствия. (Наличие большого количества данных может действительно помочь.) Теперь существуют процедуры для одновременной оценкиΣΣΣи прогнозирование коллекции значений в неизвестных местах. Они требуют немного более строгих предположений (многомерной нормальности), чтобы совершить этот подвиг.