Заказ временных рядов для машинного обучения


14

Прочитав один из «Советов по исследованию» Р. Дж. Хиндмана о перекрестной проверке и временных рядах, я вернулся к своему старому вопросу, который я постараюсь сформулировать здесь. Идея состоит в том, что в задачах классификации или регрессии порядок данных не важен, и, следовательно, можно использовать перекрестную проверку в k- кратном порядке. С другой стороны, во временных рядах упорядочение данных, очевидно, имеет большое значение.

Однако при использовании модели машинного обучения для прогнозирования временных рядов общей стратегией является преобразование ряда в набор «векторов ввода-вывода», которые в течение времени имеют форма .{Y1,,,,,YT}T(YT-N+1,,,,,YT-1,YT;YT+1)

Теперь, когда это изменение формы выполнено, можем ли мы считать, что результирующий набор «векторов ввода-вывода» не нужно упорядочивать? Если мы используем, например, прямую нейронную сеть с n входами для «изучения» этих данных, мы получим одинаковые результаты независимо от порядка, в котором мы показываем векторы для модели. И поэтому, можем ли мы использовать перекрестную проверку в k-кратном порядке стандартным способом, без необходимости каждый раз заново подгонять модель?

Ответы:


2

Ответ на этот вопрос заключается в том, что это будет работать нормально, если ваш порядок модели указан правильно, так как тогда ошибки вашей модели будут независимыми.

Эта статья здесь показывает , что если модель имеет бедный кросс-валидация недооценивает , насколько плохой она на самом деле. Во всех других случаях перекрестная проверка будет работать хорошо, в частности, лучше, чем оценка вне выборки, обычно используемая в контексте временных рядов.


6

Интересный вопрос!

Подход, который вы описываете, безусловно, очень широко используется людьми, использующими стандартные методы ML, которым требуются векторы признаков фиксированной длины для анализа данных временных рядов.

В публикации, на которую вы ссылаетесь, Хиндман отмечает, что существуют корреляции между измененными векторами данных (выборками). Это может быть проблематично, так как k-CV (или другие методы оценки, которые случайным образом разделяют данные на обучающие и тестовые наборы) предполагает, что все выборки независимы. Тем не менее, я не думаю, что эта проблема актуальна для случая стандартных методов ML, которые обрабатывают атрибуты отдельно.

Nзнак равно3

A:(Y1,Y2,Y3;Y4)В:(Y2,Y3,Y4;Y5)С:(Y3,Y4,Y5;Y6)

Очевидно, что A и B имеют такие термины, как Y2в общем Но для A это значение его второго атрибута, тогда как для B это значение его первого атрибута.


1
Я согласен с вами, что некоторые алгоритмы ML могут быть невосприимчивы к проблеме высококоррелированных выборок, поскольку они обрабатывают атрибуты совершенно отдельно. Но эти алгоритмы также не очень хороши для работы временных рядов. Алгоритмы ML, перспективные для временного ряда, должны быть в состоянии заметить, что атрибут # 1 и атрибут # 2 на самом деле похожи друг на друга, в противном случае они будут плохими при прогнозировании (прогноз должен быть примерно одинаковым, когда вы сдвигаете время на 1). Эти алгоритмы также пострадают от проблемы, упомянутой Хиндманом.
максимум
Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.