Я пытаюсь настроить гиперпараметры алгоритма гауссовой регрессии, который я реализовал. Я просто хочу максимизировать предельное правдоподобие, определяемое формулой где K - ковариационная матрица с элементы K_ {ij} = k (x_i, x_j) = b ^ {- 1} \ exp (- \ frac {1} {2} (x_i-x_j) ^ TM (x_i-x_j)) + a ^ {- 1 } \ Delta_ {IJ} , где М = Li , и а, б и л являются гиперпараметры.
частная производная логарифмического предельного правдоподобия по параметрам определяется следующим образом:
Поскольку элементы матрицы зависит от параметров, так что производные и обратную . Это означает, что когда используется оптимизатор на основе градиента, оценка градиента в данной точке (значение параметра) потребует повторного вычисления ковариационной матрицы. В моем приложении это неосуществимо, потому что вычисление ковариационной матрицы с нуля и вычисление ее обратного значения в каждой итерации градиентного подъема слишком дорого. Мой вопрос заключается в том, каковы мои варианты, чтобы найти довольно хорошую комбинацию этих трех параметров? и я также не знаю, какой параметр оптимизировать в первую очередь, и я был бы признателен за любые указания по этому вопросу.