Прежде всего: Из того, что я понял, остатки начальной загрузки работают следующим образом:
- Подгоните модель к данным
- Рассчитать остатки
- Пересчитайте остатки и добавьте их к 1.
- Подгоните модель к новому набору данных из 3.
- Повторите
n
время, но всегда добавляйте пересчитанные остатки к подгонке от 1.
Пока это правильно?
Я хочу сделать что-то немного другое:
Я хочу оценить параметр и неопределенность прогноза для алгоритма, который оценивает некоторую переменную среды.
У меня есть безошибочный временной ряд (из симуляции) этой переменной x_true
, к которому я добавляю некоторый шум x_noise
, для генерации синтетического набора данных x
. Затем я пытаюсь найти оптимальные параметры, подбирая в своем алгоритме сумму квадратов sum((x_estimate - x_true)^2)
(! Не x_estimate - x
!) В качестве целевой функции. Чтобы увидеть, как работает мой алгоритм и создать образцы распределений моих параметров, я хочу сделать повторную выборку x_noise
, добавить ее x_true
, снова подогнать мою модель, промыть и повторить. Это правильный подход для оценки неопределенности параметров? Могу ли я интерпретировать совпадения для загруженных наборов данных как неопределенность прогноза, или я должен следовать процедуре, которую я опубликовал выше?
/ edit: я думаю, что я не совсем понял, что делает моя модель. Думайте об этом как о чем-то вроде шумоподавляющего метода. Это не прогнозирующая модель, это алгоритм, который пытается извлечь основной сигнал из шумного временного ряда данных об окружающей среде.
/ edit ^ 2: Для пользователей MATLAB я написал несколько быстрых и грязных примеров линейной регрессии того, что я имею в виду.
Это то, что я считаю "обычной" начальной загрузкой остатков (пожалуйста, исправьте меня, если я ошибаюсь): http://pastebin.com/C0CJp3d1
Это то, что я хочу сделать: http://pastebin.com/mbapsz4c