Что касается прогнозирования, статистика и машинное обучение начали решать в основном одну и ту же проблему с разных точек зрения.
В основном статистика предполагает, что данные были получены по данной стохастической модели. Таким образом, со статистической точки зрения, модель предполагается и с учетом различных допущений, ошибки обрабатываются и выводятся параметры модели и другие вопросы.
Машинное обучение происходит с точки зрения компьютерных наук. Модели являются алгоритмическими, и, как правило, очень мало предположений относительно данных. Мы работаем с гипотезой пространства и смещения обучения. Лучшая экспозиция машинного обучения, которую я нашел, содержится в книге Тома Митчелла « Машинное обучение» .
Для более исчерпывающего и полного представления о двух культурах вы можете прочитать статью Лео Бреймана под названием « Статистическое моделирование: две культуры».
Однако то , что нужно добавить, что даже если эти две наук начали с разными точками зрения, оба из них в настоящее время в настоящее время доли суммы справедливой общих знаний и методов. Почему, потому что проблемы были те же, но инструменты были разные. Так что теперь обучение машины в основном рассматривается с точки зрения статистики (проверьте Гесте, Tibshirani, Фридман книги Элементы статистического обучения от машинного обучения точки зрения со статистической пропиткой, и , возможно , книгой Кевин П. Мерфи Machine Learning: A вероятностной точки зрения , чтобы назвать только некоторые из лучших книг , доступных на сегодняшний день).
Даже история развития этой области показывает преимущества этого слияния перспектив. Я опишу два события.
Во-первых, это создание деревьев CART, которые были созданы Брейманом с солидным статистическим фоном. Примерно в то же время Quinlan разработал ID3, C45, See5 и т. Д. Пакет дерева решений с большим опытом работы в области информатики. Теперь и эти семейства деревьев, и методы ансамбля, такие как укладка в мешки и леса, становятся довольно похожими.
Вторая история о повышении. Первоначально они были разработаны Фрейндом и Шапиром, когда они обнаружили AdaBoost. Выбор для проектирования AdaBoost был сделан в основном с вычислительной точки зрения. Даже авторы не очень хорошо поняли, почему это работает. Только через 5 лет Брейман (снова!) Описал модель adaboost со статистической точки зрения и объяснил, почему это работает. С тех пор различные видные ученые с обоими типами опыта развивали эти идеи, приводя к Плеядам алгоритмов повышения, таких как повышение логистики, повышение градиента, мягкое повышение и так далее. Сейчас трудно думать о повышении без твердого статистического фона.
Обобщенные линейные модели - это статистическая разработка. Однако новые байесовские процедуры помещают этот алгоритм также в игровую площадку для машинного обучения. Поэтому я считаю, что оба утверждения могут быть правильными, поскольку интерпретация и трактовка того, как это работает, могут быть разными.