Предположим, у меня есть панель объясняющих переменных , для i = 1 . , , N , t = 1 . , , Т , а также вектор двоичных результатов зависимых переменных У я Т . Таким образом, Y наблюдается только в последний момент времени T, а не в любое более раннее время. Полностью общий случай состоит в том, чтобы иметь несколько X i j t для j = 1 ... K для каждой единицы i в каждый момент времени t, но давайте сосредоточимся на случае для краткости.
Применения таких «несбалансированных» пар с временными коррелированными объяснительными переменными, например, (ежедневные цены на акции, ежеквартальные дивиденды), (ежедневные отчеты о погоде, годовые ураганы) или (особенности шахматной позиции после каждого хода, результат выигрыша / проигрыша на конец игры).
Я заинтересован в (возможно нелинейном) регрессии коэффициенты для этого предсказания в Y я т , зная , что в обучающих данных, учитывая ранние наблюдения Х я т для т < Т , то это приводит к окончательному результату Y я T
Исходя из эконометрического фона, я не видел большого регрессионного моделирования, применяемого к таким данным. OTOH, я видел следующие методы машинного обучения, применяемые к таким данным:
- проводить контролируемое обучение на всем наборе данных, например, минимизировать
просто экстраполируя / вменяя наблюдаемый во все предыдущие моменты времени
Это кажется «неправильным», потому что оно не будет учитывать временную корреляцию между различными моментами времени.
- делая подкрепление обучения , такие как временная разница с-обучение параметра ; и дисконтный параметр Л , и рекурсивно решения для беты т через обратное распространение , начиная с т = Т
с является градиент F ( ) по отношению к р .
Это кажется более «правильным», поскольку учитывает временную структуру, но параметры и λ являются своего рода «специальными».
Вопрос : есть ли литература о том, как отобразить вышеприведенные методы обучения под наблюдением / подкреплением в регрессионную структуру, используемую в классической статистике / эконометрике? В частности, я хотел бы иметь возможность оценивать параметры за один раз (то есть для всех t = 1 ... T одновременно), выполняя (нелинейные) наименьшие квадраты или максимальное правдоподобие для таких моделей в качестве
Мне также было бы интересно узнать, могут ли временные различия обучения мета-параметров и λ быть восстановлены из формулировки максимального правдоподобия.