В качестве средства мотивации вопроса рассмотрим проблему повторного сопоставления, в которой мы пытаемся оценить используя наблюдаемые переменные { a , b }
Делая многомерную полиномиальную регрессию, я стараюсь найти оптимальную парамитизацию функции
которые лучше всего соответствуют данным в наименее квадратичном смысле.
Однако проблема заключается в том, что параметры не являются независимыми. Есть ли способ сделать регрессию на другом наборе «базисных» векторов, которые ортогональны? Делать это имеет много очевидных преимуществ
1) коэффициенты больше не коррелированы. 2) значение «не сам по себе ев больше не зависят от степени коэффициентов. 3) Это также имеет вычислительное преимущество, заключающееся в возможности отбрасывать члены более высокого порядка для более грубого, но все же точного приближения к данным.
Это легко достигается в случае одной переменной с использованием ортогональных многочленов с использованием хорошо изученного множества, такого как многочлены Чебышева. Однако не совсем понятно (для меня), как это обобщить! Мне пришло в голову, что я могу попарно многочлены Чебышева попарно, но я не уверен, что это математически правильная вещь.
Ваша помощь ценится