Я взял курс Эндрю Нг «Машинное обучение» через Coursera несколько месяцев назад, не обращая внимания на большую часть математики / дериваций и вместо этого сосредоточившись на практической реализации. С тех пор я начал возвращаться к изучению основополагающей теории и пересмотрел некоторые лекции профессора Нга. Я читал его лекцию «Регулярная линейная регрессия» и увидел, что он дал следующую функцию стоимости:
Затем он дает следующий градиент для этой функции стоимости:
Я немного озадачен тем, как он переходит от одного к другому. Когда я попытался сделать свой собственный вывод, у меня был следующий результат:
Разница заключается в том, что знак «плюс» между исходной функцией стоимости и параметром регуляризации в формуле профессора Нга превращается в знак «минус» в его функции градиента, тогда как в моем результате этого не происходит.
Интуитивно я понимаю, почему это отрицательно: мы уменьшаем тэта-параметр на величину градиента, и мы хотим, чтобы параметр регуляризации уменьшил величину изменения параметра, чтобы избежать переобучения. Я просто немного застрял в исчислении, которое поддерживает эту интуицию.
К вашему сведению, вы можете найти колоду здесь , на слайдах 15 и 16.