Часто говорят, что регрессия Гауссова процесса соответствует (GPR) байесовской линейной регрессии с (возможно) бесконечным количеством базисных функций. В настоящее время я пытаюсь понять это в деталях, чтобы понять, какие модели я могу выразить, используя GPR.
- Как вы думаете, это хороший подход, чтобы попытаться понять GPR?
В книге « Гауссовские процессы для машинного обучения» Расмуссен и Уильямс показывают, что множество гауссовых процессов, описываемых параметризованным экспоненциальным квадратом ядра можно эквивалентно описать как байесовскую регрессию с предварительным убеждениемw∼N(0,σ 2 p I)на весах и бесконечным количеством базисных функций видаϕc(x;l)=exp(-(х-в)2
- Может ли параметризация дифференцируемого ядра всегда переводиться в параметризацию предшествующей и базисной функций или существуют дифференцируемые ядра, где, например, количество базисных функций зависит от конфигурации?
Мой следующий вопрос об обратной теореме Мерсера.
- Какие наборы базисных функций приводят к действительным ядрам?
И расширение
- Какие наборы параметризованных базисных функций приводят к действительным дифференцируемым ядрам?