Как правило, нет, но потенциально да, при неправильном указании. Вопрос, который вы ищете, называется допустимостью. Решение является допустимым, если есть не менее рискованный способ его расчета.
Все байесовские решения являются допустимыми, а небайесовские решения допустимы в той степени, в которой они либо соответствуют байесовскому решению в каждой выборке, либо на пределе. Допустимое частое или байесовское решение всегда побьет решение ML, если оно также не допустимо. С учетом сказанного, есть некоторые практические замечания, которые делают это утверждение правдивым, но бессмысленным.
Во-первых, априор для байесовского варианта должен быть вашим реальным априором, а не каким-то априорным распространением, используемым для того, чтобы сделать редактора в журнале счастливым. Во-вторых, многие решения Frequentist недопустимы, и вместо стандартного решения следовало бы использовать оценку усадки. Многие люди не знают о лемме Стейна и ее последствиях из-за ошибки выборки. Наконец, ML во многих случаях может быть немного более устойчивым к ошибке неправильной спецификации.
Когда вы переходите к деревьям решений и их кузенам, лесам, вы не используете подобную методологию, если только вы не используете нечто похожее на сеть Байеса. Графическое решение содержит значительное количество неявной информации, в частности, ориентированный граф. Всякий раз, когда вы добавляете информацию в вероятностный или статистический процесс, вы уменьшаете изменчивость результата и изменяете то, что считается допустимым.
Если вы посмотрите на машинное обучение с точки зрения композиции функций, оно просто станет статистическим решением, но с использованием приближений, чтобы сделать решение поддающимся обработке. Для байесовских решений MCMC экономит невероятное количество времени, как и градиентный спуск для многих задач ML. Если бы вам пришлось либо построить точный апостериор для интеграции, либо использовать грубую силу для решения многих проблем ОД, Солнечная система умерла бы своей тепловой смертью, прежде чем вы получили ответ.
Я предполагаю, что у вас есть неправильно заданная модель для тех, кто использует статистику или неприемлемую статистику. Я преподавал лекцию, в которой доказал, что новорожденные будут выплывать из окон, если их не пеленать должным образом, и где байесовский метод настолько радикально превзошел метод Frequentist по полиномиальному выбору, что метод Frequentist безубыточен, в ожидании, в то время как метод Bayesian удвоил деньги участников. , Теперь я злоупотреблял статистикой в первом и использовал недопустимость оценки Frequentist во втором, но наивный пользователь статистики мог легко сделать то, что я сделал. Я просто сделал их экстремальными, чтобы примеры были очевидными, но я использовал абсолютно реальные данные.
Случайные леса являются последовательными оценками, и они, похоже, напоминают определенные байесовские процессы. Из-за связи с оценщиками ядра они могут быть довольно близки. Если вы видите существенное различие в производительности между типами решений, то в лежащей в основе проблеме есть что-то, что вы неправильно понимаете, и если проблема имеет какое-то значение, вам действительно нужно искать источник различия, поскольку это также может быть В случае, если все модели указаны неправильно.