Каковы преимущества и недостатки обоих методов?
Каковы преимущества и недостатки обоих методов?
Ответы:
Оценка максимального правдоподобия - это общий подход к оценке параметров в статистических моделях путем максимизациифункции правдоподобия, определенной как
то есть вероятность получения данных задана некоторым значением параметра θ . Зная функцию правдоподобия для данной задачи вы можете искать такое & thetas , что максимизирует вероятность получения данных у вас есть. Иногда нам известны оценки, например, среднее арифметическое является оценкой MLE для параметра μ для нормального распределения , но в других случаях вы можете использовать другие методы, которые включают использование алгоритмов оптимизации. Подход ML не говорит вам, как найти оптимальное значение θ - вы можете просто принять догадки и использовать вероятность, чтобы сравнить, какое предположение было лучше, - он просто говорит вам, как вы можете сравнить, если одно значение является «более вероятным», чем другой.
Градиентный спуск - это алгоритм оптимизации . Вы можете использовать этот алгоритм, чтобы найти минимум (или максимум, тогда он называется градиентным всплытием ) множества различных функций. Алгоритм на самом деле не заботится о том, какую функцию он минимизирует, он просто делает то, о чем его просили. Таким образом, используя алгоритм оптимизации, вы должны каким-то образом узнать, как определить, является ли одно значение интересующего параметра «лучше», чем другое. Вы должны предоставить вашему алгоритму некоторую функцию, чтобы минимизировать, и алгоритм будет заниматься поиском его минимума.
Вы можете получить оценки максимального правдоподобия, используя различные методы, и одним из них является алгоритм оптимизации. С другой стороны, градиентный спуск также может использоваться для максимизации функций, отличных от функции правдоподобия.
Обычно, когда мы получаем функцию правдоподобия , тогда мы решаем уравнение d f
мы можем получить значение которое может дать максимальное или минимальное значение , готово!
f
Но функция правдоподобия логистической регрессии не является решением в такой замкнутой форме . Поэтому мы должны использовать другой метод, например gradient descent
.
likelihood function
+ gradient descent
(чтобы получить решение функции правдоподобия) все еще является способом сделать MLE.
Unlike linear regression, we can no longer write down the MLE in closed form. Instead, we need to use an optimization algorithm to compute it. For this, we need to derive the gradient and Hessian.
из машинного обучения: вероятностная перспектива, Кевин Мерфи.