Почему логистическая регрессия называется алгоритмом машинного обучения?


19

Если я правильно понял, в алгоритме машинного обучения модель должна учиться на своем опыте, то есть когда модель дает неправильный прогноз для новых случаев, она должна адаптироваться к новым наблюдениям, и со временем модель становится все лучше , Я не вижу, что логистическая регрессия имеет эту характеристику. Так почему же он все еще считается алгоритмом машинного обучения? В чем разница между логистической регрессией и нормальной регрессией в терминах «обучения»?

У меня такой же вопрос для случайных лесов!

И каково определение «машинного обучения»?


4
Я отредактировал ваш вопрос для грамматической ясности, но не уверен, что вы имеете в виду в целом ... Логистическая регрессия подпадает под ML, потому что это алгоритм классификации. Машинное обучение не подразумевает, что алгоритм должен быть адаптивным (хотя есть алгоритмы, которые учатся на новых наблюдениях). Адаптация - это скорее выбор реализации, обычно достигаемый генеративными алгоритмами машинного обучения, которые моделируют общую вероятность.
Жубарб

12
«Машинное обучение» является довольно слабо определенным понятием. Действительно, все статистические процедуры, включающие подбор модели, можно рассматривать как машинное обучение. (Предполагая, что подгонка модели может быть выполнена компьютером, в некоторой степени!). Вот почему некоторые статистики недовольны «большими данными», «машинным обучением» и т. П. Сообществами, которые мутят воду о том, что такое статистика (а что нет!)
P.Windridge


1
@ P.Windridge: если «все статистические процедуры, которые включают в себя подгонку модели, можно рассматривать как машинное обучение», так что я не понимаю, почему мы должны различать машинное обучение и статистику
Метариат

4
@XuanQuangDO Мы, вероятно, не должны различать машинное обучение и статистику.
Sycorax сообщает восстановить Monica

Ответы:


21

Машинное обучение не является четко определенным термином.

На самом деле, если вы используете «Определение машинного обучения» в Google, первые две вещи, которые вы получите, будут совершенно разными.

С WhatIs.com ,

Машинное обучение - это тип искусственного интеллекта (ИИ), который дает компьютерам возможность учиться без явного программирования. Машинное обучение направлено на разработку компьютерных программ, которые могут научиться расти и изменяться при воздействии новых данных.

Из Википедии ,

Машинное обучение исследует построение и изучение алгоритмов, которые могут учиться и делать прогнозы на основе данных.

Логистическая регрессия, несомненно, соответствует определению Википедии, и вы можете поспорить, соответствует ли она определению WhatIs.

Я лично определяю машинное обучение так же, как Википедия, и считаю это подмножеством статистики.


1
Я согласен с большей частью того, что вы сказали, за исключением того, что это подмножество статистики. Он имеет большое совпадение, но есть такие виды обучения, как обучение с подкреплением, которое на самом деле нельзя считать подмножеством статистики.
Джордж

2
Это не хорошие источники.
Нил Г

@ Джордж Право, но давайте посмотрим правде в глаза, если вам пришлось применять метку ко всем методологиям сбора, анализа и моделирования данных, будь то машинное обучение, контролируемое или неконтролируемое, параметрическое или непараметрическое, это все статистика. ML является специализированной областью в области статистики.
RobertF

@RobertF Я не согласен. Машинное обучение - это область, в которой изучают, как машины могут учиться. Я согласен с тем, что большинство методов, используемых в ML, можно считать статистическими методами, но эта область по своей природе не является подполем статистики. Например, я не думаю, что марковские процессы принятия решений считаются статистическими методами.
Джордж

1
@ Джордж Марковские модели с дискретным временем являются вероятностными моделями. Как только вы оцениваете неизвестные параметры вероятностной модели (например, процессы принятия решений по Маркову), которая является определением статистической процедуры в учебнике. Я думаю, что основным видом деятельности, который можно назвать ML, а не статистикой, являются конкретные приложения, такие как создание робота, играющего в шахматы. Базовые алгоритмы, несомненно, будут включать в себя вероятность и статистику, но приложение на самом деле не «статистика». Вроде того, как исследования в области геномики активно используют статистику, но это совершенно разные области.
Ахфосс

20

Машинное обучение - это жарко, и там деньги. Люди называют вещи, которые они пытаются продать, что сейчас горячо, и поэтому «продают». Это может быть продажа программного обеспечения. Это может быть продажа себя в качестве нынешних сотрудников, пытающихся получить повышение по службе, в качестве потенциальных сотрудников, в качестве консультантов и т. Д. Это может быть менеджер, пытающийся получить одобрение бюджета от крупной компании, чтобы нанимать людей и покупать вещи, или убеждать инвесторов вкладывать средства в его / ее горячий новый стартап, который делает машинное обучение ключом к созданию улучшенного секс-приложения. Таким образом, программное обеспечение делает машинное обучение, а люди - специалистами по машинному обучению, потому что это то, что горячо и, следовательно, то, что продается ... по крайней мере, сейчас.

Я сделал все виды линейной и нелинейной статистической модели, подходящей более 30 лет назад. Тогда это не называлось машинным обучением. Теперь большая часть будет.

Точно так же, как все и их дядя, теперь Data "Scientist". Это горячо, это якобы сексуально, так что люди так себя называют. И это то, что менеджеры по найму, которые должны получить одобрение бюджета, чтобы нанять кого-то, перечислите должности как Таким образом, тот, кто не знает в первую очередь математики, вероятности, статистики, оптимизации или числовых вычислений / вычислений с плавающей запятой, использует пакет R или Python с сомнительной правильностью и надежностью реализации, который помечен как алгоритм машинного обучения, применять к данным, которые они не понимают, и называть себя Data Scientist, основываясь на своем опыте в этом.

Это может показаться легкомысленным, но я считаю, что это суть ситуации.

Изменить: 26 сентября 2019 года было написано следующее:

https://twitter.com/daniela_witten/status/1177294449702928384

Даниэла Виттен @daniela_witten "Когда мы собираем деньги, это ИИ, когда мы нанимаем их машинное обучение, а когда мы делаем работу, это логистическая регрессия".

(Я не уверен, кто придумал это, но это жемчужина 💎)


16
Я не буду скрывать, что разделяю некоторые из этих мнений и сочувствую остальным. Однако, чтобы они были подходящими в качестве ответа на сайте SE, им нужна какая-то поддержка. Очевидно, что это не будет происходить из дедуктивных рассуждений: оно должно исходить из фактов и / или цитирования авторитетных источников. Было бы здорово, если бы ты мог сделать это!
whuber

10
Это самый интересный пост, который я прочитал сегодня на этом сайте, и я согласен с ним. Но я должен согласиться с @whuber, что он не отвечает на вопрос в его нынешнем виде.
Ник Кокс

6
В качестве небольшого уточнения. Я работаю как в области разработки программного обеспечения, так и в "науке о данных". Я беру интервью у многих людей. Количество людей, опрашивающих на должности по разработке программного обеспечения и по науке о данных, которые не имеют навыков для выполнения работы, примерно одинаково. Так что же особенного в названии науки о данных? Люди собираются накачать свои навыки во всех технических дисциплинах. Я уверен, что обмен стеками программирования имеет много одинаковых жалоб.
Мэтью Друри

7
Это больше похоже на разглагольствование, чем на ответ. Конечно, имена меняются, брендинг важен, а машинное обучение горячо (и, следовательно, у него много самопровозглашенных практикующих, которые не знают, что делают). Однако использование этого в качестве аргумента для недооценки области, которая стала укоренившейся и весьма актуальной как в области исследований, так и в промышленности, кажется мне дешевым.
Марк Клазен

7
@ MarkL.Stone Я понимаю вашу ситуацию и полностью согласен с тем, что здесь много некомпетентных вставок . Однако, по моему мнению, тот факт, что такие люди находят (и сохраняют!) Работу, является ошибкой руководства. Если менеджеры недовольны результатами аналитиков и относятся ко всем аналитикам одинаково, независимо от индивидуальных навыков / результатов, тогда менеджмент также некомпетентен, как и плохие аналитики. Любая работа, которая имеет запах денег, имеет шарлатаны, например, лекарства. Широкие обобщения о специалистах в области данных / машинного обучения так же плохи, как и недоверие ко всем аналитикам.
Марк Класен

18

Как уже упоминали другие, нет четкого разделения между статистикой, машинным обучением, искусственным интеллектом и т. Д., Поэтому возьмите любое определение с большой долей соли. Логистическая регрессия, вероятно, чаще обозначается как статистика, а не машинное обучение, тогда как нейронные сети обычно обозначаются как машинное обучение (хотя нейронные сети часто являются просто набором моделей логистической регрессии).

По моему мнению, машинное обучение изучает методы, которые могут каким-то образом извлечь уроки из данных, как правило, путем построения модели в той или иной форме. Логистическая регрессия, как SVM, нейронные сети, случайные леса и многие другие методы, учатся на данных при построении модели.

Если я правильно понял, в алгоритме машинного обучения модель должна учиться на своем опыте

Это не совсем то, как обычно определяется машинное обучение. Не все методы машинного обучения дают модели, которые динамически адаптируются к новым данным (это подполе называется онлайн-обучением ).

В чем разница между логистической регрессией и нормальной регрессией в терминах «обучения»?

Многие методы регрессии также классифицируются как машинное обучение (например, SVM).


2
Обратите внимание, что неконтролируемое обучение по-прежнему называется (машинным) обучением, поэтому необязательно иметь какой-либо цикл обратной связи, чтобы классифицировать что-либо как «машинное обучение».
вс

Это не тема для вопроса, но в этом ответе также упоминается разделение между ИИ и ОД. Мне всегда нравилось это определение AI: en.wikipedia.org/wiki/…
Дэвис Йошида

10

Логистическая регрессия была изобретена статистиком Д. Р. Коксом в 1958 году и поэтому предшествует области машинного обучения. Логистическая регрессия не является методом классификации, слава богу. Это модель прямой вероятности.

Если вы считаете, что алгоритм должен иметь две фазы (первоначальное предположение, а затем «исправить» предсказание «ошибки»), учтите следующее: логистическая регрессия делает это правильно с первого раза. То есть в пространстве аддитивных (в логите) моделей. Логистическая регрессия является прямым конкурентом многих методов машинного обучения и превосходит многие из них, когда предикторы в основном действуют аддитивно (или когда знание предмета правильно предопределяет взаимодействия). Некоторые называют логистическую регрессию типом машинного обучения, но большинство не будет. Вы можете назвать некоторые методы машинного обучения (например, нейронные сети) статистическими моделями.


1
Как ни странно, сервис машинного обучения Amazon использует только один алгоритм (afaik) - логистическую регрессию - для задач классификации : p aws.amazon.com/machine-learning/faqs
stmax

Вы можете просто представлять данные постепенно - как в случае проблемы онлайн-обучения . В этом случае логистическая регрессия не "делает это правильно с первого раза". Я постепенно учусь. Он имеет стандартные потери, и его обновление является стандартным применением градиентного спуска. Логистическая регрессия есть в каждом учебнике по машинному обучению, который я видел.
Нил Г

1
β

@FrankHarrell: Правильно, и так происходит оценка максимального правдоподобия решения задачи логистической регрессии.
Нил Г

Логистическая регрессия может предшествовать термину «Машинное обучение», но это не предшествует области : SNARC была разработана в 1951 году и была обучающей машиной . Кроме того, настойчивое требование, что логистическая регрессия только моделирует вероятности, и само по себе не является классификатором, является расщеплением волос. По этой логике нейронная сеть не является классификатором (если выходной слой не состоит из двоичных нейронов, но это сделает обратное распространение невозможным).
Игорь Федорович

8

Я должен не согласиться с большинством ответов здесь и утверждать, что машинное обучениеимеет очень точный охват и четкое отличие от статистики. ML - это область компьютерных наук с большой историей, которая только в последние годы нашла применение за пределами своей области. Родительская область и область применения ML находятся в пределах Искусственного интеллекта (робототехника, программное обеспечение для распознавания образов и т. Д.), Поэтому это не просто «горячий термин», такой как «Большие данные» или «Наука о данных». Статистика, с другой стороны, (которая происходит от слова «государство») была разработана в рамках социальных и экономических наук как инструмент для людей, а не машин. ML развивался отдельно от статистики и, хотя где-то на этом пути он начал в значительной степени полагаться на статистические принципы, он ни в коем случае не является подполем статистики. ML и статистика являются взаимодополняющими, а не перекрывающимися полями.

Длинный ответ :

Как следует из его названия, методы ML были сделаны для программного обеспечения / машин, в то время как статистические методы были сделаны для людей. Как ML, так и статистика имеют дело с предсказаниями на основе данных, однако методы ML основаны на непараметрическом автоматизированном подходе, тогда как статистические методы требуют большой ручной работы по созданию модели с дополнительным объяснительным фактором. Это имеет смысл, если учесть, что алгоритмы ML были разработаны в исследованиях ИИ как средство автоматического прогнозирования, которое должно было быть интегрировано в программное обеспечение робототехники (например, для распознавания голоса и лица). Когда «машина» делает предсказание, она не заботится о причинах этого. Машине не важно знать драйверы / предикторы модели, которая классифицирует электронную почту как спам или не спам, она заботится только о том, чтобы иметь лучшую точность прогноза.черные ящики , это не потому, что у них нет модели, а потому, что модель построена алгоритмически и не предназначена для того, чтобы быть видимой ни человеку, ни машине.

Концепция «обучения» в ML основывается на вычислительных мощностях, тогда как построение статистической модели с использованием методов оценки параметров типа OLS опирается на знания специалиста-человека. В сценарии множественной регрессии статистик должен использовать свое экспертное суждение для выбора своей модели и проверки всех необходимых статистических допущений. Цель статистики - не только найти закономерности и использовать их для прогнозов, но и понять его данные и его проблему гораздо глубже, чем ML.

Конечно, в некоторых случаях ML и статистика перекрываются, как в случае со многими дисциплинами. Логистическая регрессия является одним из таких случаев; Первоначально статистический метод, который так похож на простой Перцептрон (один из самых фундаментальных методов ML), что в некоторых случаях рассматривается как метод ML.


1
Возможно, вы никогда не слышали о непараметрической статистике и непараметрических статистических моделях и построении моделей?
Марк Л. Стоун

1
Да, я использую непараметрическую статистику ежедневно. Я не говорил, что ML является непараметрическим ответом на статистику, я просто считаю, что непараметрические методы ML являются побочным эффектом. Непараметрическая статистика - это альтернативный вариант статистики, когда параметрическая статистика терпит неудачу, но все же является результатом сознательного выбора эксперта. Я, вероятно, недостаточно четко выражаю свою точку зрения и извиняюсь за это.
Дигио

3
Есть много статистиков, которые делают непараметрические модели, статистика все время. Слышали ли вы об эмпирическом правдоподобии - изобретенном статистиком, используемом статистиками и совершенно непараметрическом, хотя его также можно использовать полупараметрическим образом. Поэтому я не согласен с вами, но я не отрицал вас.
Марк Л. Стоун

1
Несогласие - это хорошо, Марк, но я все еще не совсем понимаю, о чем твой контраргумент. Вы подразумеваете, что непараметрическая статистика не нуждается в машинном обучении (что я никогда не отрицал)? Или вы утверждаете, что на самом деле машинное обучение - это просто другое название непараметрической статистики (что я отрицаю)?
Дигио

3
Здесь есть с чем не согласиться. Многовариантные регрессионные модели, когда они используются в сочетании с современными статистическими инструментами, могут быть гибкими и очень конкурентоспособными с ML.
Фрэнк Харрелл

3

Машинное обучение довольно свободно определено, и вы правы, полагая, что регрессионные модели - и не только логистические регрессионные - также "учатся" на основе данных. Я не совсем уверен, означает ли это, что машинное обучение - это действительно статистика или статистика - это действительно машинное обучение - или вообще что-то из этого имеет значение.

К

Тем не менее, некоторые алгоритмы учатся на ошибках предсказания - это особенно распространено в обучении с подкреплением , когда агент предпринимает какое-то действие, наблюдает за его результатом, а затем использует результат для планирования будущих действий. Например, роботизированный пылесос может начаться с модели мира, в которой он одинаково часто очищает все места, а затем научиться пылесосить грязные места (где его «вознаграждают», находя грязь) больше и меньше чистить места.

Онлайн или инкрементные алгоритмы могут многократно обновляться новыми данными обучения. Это не обязательно зависит от точности прогнозирования модели, но я мог бы представить алгоритм, в котором веса обновляются более агрессивно, если, например, новые данные кажутся очень маловероятными с учетом текущей модели. Существуют онлайн-версии для логистической регрессии: например, McMahan and Streeeter (2012) .


3

Я наконец-то понял. Теперь я знаю разницу между подгонкой статистической модели и машинным обучением.

  • Если вы подходите модели (регрессия), это статистическое соответствие модели
  • Если вы изучаете модель (регрессию), это машинное обучение

Так что, если вы изучите логистическую регрессию, это алгоритм машинного обучения.

Комментарий: Извините меня за то, что я старый чудак, но всякий раз, когда я слышу, как люди говорят о изучении модели или изучении регрессии, это заставляет меня думать о Джетро: «Я научил меня обучению».

КОНЕЦ РЕЗЬБЫ


??? Я также могу узнать модель логистики, о чем ты говоришь?
SmallChess

1
@Student T, если вы подходите логистической модели, это статистическая модель. Если вы изучаете логистическую модель, то есть машинное обучение. То есть, это действительно вопрос терминологии, используемой в различных областях. Одни и те же вещи можно назвать разными вещами в разных областях (статистика и машинное обучение).
Марк Л. Стоун

0

Логистическая регрессия (и в целом GLM) НЕ относится к машинному обучению! Скорее, эти методы относятся к параметрическому моделированию.

Оба параметрических и алгоритмические модели (ML) используют данные, но в разных направлениях. Алгоритмические модели изучают на основе данных, как предикторы преобразуются в предикторы, но они не делают никаких предположений о процессе, который произвел наблюдения (и вообще ни о каком другом предположении). Они считают, что базовые отношения между входными и выходными переменными являются сложными и неизвестными, и, таким образом, используют подход, основанный на данных, чтобы понять, что происходит, вместо того, чтобы вводить формальное уравнение.

С другой стороны, параметрические модели назначаются априори на основе некоторых знаний об изучаемом процессе, используют данные для оценки их параметров и делают много нереалистичных предположений, которые редко применяются на практике (таких как независимость, равная дисперсия и Нормальное распределение ошибок).

Кроме того, параметрические модели (такие как логистическая регрессия) являются глобальными моделями. Они не могут фиксировать локальные шаблоны в данных (в отличие от методов ML, которые используют деревья в качестве базовых моделей, например RF или Boosted Trees). См. Эту бумажную страницу 5. В качестве стратегии исправления может быть использован локальный (то есть непараметрический) GLM (см., Например, пакет locfit R).

Часто, когда доступно мало знаний о лежащем в основе явлении, лучше принять управляемый данными подход и использовать алгоритмическое моделирование. Например, если вы используете логистическую регрессию в случае, когда взаимодействие между входными и выходными переменными не является линейным, ваша модель будет явно неадекватной и много сигнала не будет получено. Однако, когда процесс хорошо понят, параметрические модели имеют преимущество в предоставлении формального уравнения для суммирования всего, что является мощным с теоретической точки зрения.

Для более подробного обсуждения прочитайте эту превосходную статью Лео Бреймана.


4
Пожалуйста, найдите время, чтобы понять логистическую регрессию. Это не делает никаких распределительных предположений вообще. Это делает точно такое же предположение о независимости, сделанное ML. ML требует гораздо больших размеров выборки, чем логистическая регрессия. Например, случайным лесам и SVM может потребоваться 200 событий для каждого кандидата, чтобы быть стабильным, в то время как логистическая регрессия обычно требует 200 событий на одну переменную кандидата.
Фрэнк Харрелл

2
Вы должны найти время, чтобы понять логистическую регрессию! Это обобщенная линейная модель, где ссылка является функцией логита. Это параметрический. Предполагается, что наблюдения являются IID. Кроме того, удачи в захвате нелинейных отношений. Кроме того, что означает вторая часть вашего предложения? Для меня особенность является переменной (?)
Антуан

5
Есть много хороших книг по этому вопросу, и я рекомендую вам проконсультироваться с ними, прежде чем продолжить. Логистическая регрессия не предполагает одинакового распределения и фактически не предполагает никакого распределения. Если вы не можете продемонстрировать, как вы учитываете структуру корреляции в ML, оба подхода предполагают независимость. Сплайны регрессии используются с 1982 года, чтобы ослабить допущения линейности в логистической регрессии. Для этого обсуждения особенность = переменная, если она не развернута в сплайне.
Фрэнк Харрелл

5
Брейман все хорошо понимал. Он просто не имел дела с событиями логистической регрессии после 1982 года, например, с оценкой максимальной вероятности, сплайнами регрессии и комбинациями с методами сокращения данных. Единственным серьезным ограничением логистической регрессии является то, что, как и другие методы, не удается найти правильные взаимодействия, если кто-то ищет взаимодействия, и они не определены заранее. Большинство методов, предназначенных для этого, не приводят к воспроизводимым результатам. Кроме того, Брейман использовал неправильную оценку точности, которая может быть оптимизирована фиктивной моделью.
Фрэнк Харрелл

3
@ Антуан: «почему логистическая регрессия кардинально отличается от ОД». Обратите внимание, что некоторые методы в ML (наиболее заметно, SVM) очень сильно связаны с логистической регрессией. За исключением нескольких взаимодействий, как писал Фрэнк, логистический регистр с нелинейностями и штрафами дает результаты, очень похожие на SVM и другие методы ML. Меня по-прежнему удивляет, как в некоторых работах приводятся улучшения производительности, основанные на методе ML, и логистической модели stat101 для негативной оценки логистической регрессии.
Томас Шпейдель

-1

Я думаю, что другие ответы хорошо помогают определить, что такое машинное обучение (как они указывают, это может быть нечеткой вещью). Я добавлю, что Логистическая регрессия (и ее более общая многочленовая версия) очень часто используется в качестве средства выполнения классификации в искусственных нейронных сетях (которые, я думаю, однозначно охватываются любым разумным определением машинного обучения, которое вы выберете), и поэтому, если вы упомянете Логистическая регрессия для нейронной сети, они, вероятно, сразу подумают об этом в этом контексте. Увязаться с сильным нападающим в машинном обучении - это хороший способ самим стать техникой машинного обучения, и я думаю, что в некоторой степени именно это и произошло с различными методами регрессии, хотя я бы не стал сбрасывать со счетов их как правильные методы машинного обучения. сами по себе.


Обратите внимание, что логистическая регрессия - это не классификатор, а метод прямой оценки вероятности.
Фрэнк Харрелл

Для получения дополнительной информации по вопросу доктора Харрелла, пожалуйста, смотрите мой пост здесь. stats.stackexchange.com/questions/127042/…
Sycorax сообщает, что восстановит Монику

@FrankHarrell Мы также можем использовать вероятность для классификации, так что это действительно классификатор.
SmallChess

@ StudentT4 Это не может быть более неправильным. Если прямая оценка вероятности. Как вы используете конечный результат логистической модели, зависит от вас. По вашей логике выборка означает классификатор.
Фрэнк Харрелл

-1

Я думаю, что любая процедура, которая является «итеративной», может считаться случаем машинного обучения. Регрессия может рассматриваться как машинное обучение. Мы могли бы сделать это вручную, но это займет много времени, если это вообще возможно. Итак, теперь у нас есть эти программы, машины, которые делают итерации за нас. Это становится все ближе и ближе к решению, или к лучшему решению или наилучшему соответствию. Итак, «машинное обучение». Конечно, такие вещи, как нейронные сети, привлекают наибольшее внимание к машинному обучению, поэтому мы обычно связываем машинное обучение с этими сексуальными процедурами. Также здесь важна разница между «контролируемым» и «неконтролируемым» машинным обучением.


-2

Это очень распространенная ошибка, которую совершают большинство людей, и я могу видеть это и здесь (сделано почти всеми). Позвольте мне объяснить это подробно ... Модель логистической регрессии и линейной регрессии, оба являются параметрической моделью, а также техникой машинного обучения. Это зависит только от метода, который вы используете для оценки параметров модели (тета). Существует два способа нахождения параметров модели в линейной регрессии и логистической рег.

  1. Техника градиентного спуска : здесь мы начинаем с присвоения параметров случайным значениям и находим функцию стоимости (ошибка). На каждой итерации мы обновляем наши параметры и минимизируем функцию стоимости. После определенного числа итераций функция стоимости снижается до желаемых значений, а значения соответствующих параметров являются нашими окончательными значениями. Это то, что должны делать методы машинного обучения. Итак, если вы используете технику градиентного спуска, логистическая регрессия может называться техникой машинного обучения.

  2. Используя метод наименьших квадратов: здесь мы имеем прямую формулу, чтобы найти наши параметры (некоторая матричная алгебра необходима для понимания вывода этой формулы), которая известна как нормальное уравнение. Метод наименьших квадратов

Здесь b представляет параметры X Матрица дизайна. Оба метода имеют свои преимущества и недостатки. Чтобы получить более подробную информацию: следуйте по курсу «Машинное обучение», который еще работает.

Я надеюсь, что этот пост может быть полезным .. :-)

Используя наш сайт, вы подтверждаете, что прочитали и поняли нашу Политику в отношении файлов cookie и Политику конфиденциальности.
Licensed under cc by-sa 3.0 with attribution required.