В случайном лесе представляет собой набор из нескольких дерев решения , которые обучаются независимо друг от друга . Таким образом, нет понятия последовательно зависимого обучения (что имеет место в алгоритмах повышения ). В результате, как уже упоминалось в другом ответе, возможно параллельное обучение деревьев.
Возможно, вы захотите узнать, откуда происходит «случайный» случайный лес: есть два способа, которыми случайность вводится в процесс изучения деревьев. Первый случайный выбор точек данных, используемых для обучения каждого из деревьев, а второй случайный выбор признаков, используемых при построении каждого дерева. Так как одно дерево решений обычно имеет тенденцию к переопределению данных, внедрение случайности таким образом приводит к тому, что у каждого из них есть куча деревьев, в которых каждое из них имеет хорошую точность (и, возможно, переопределение) в различном подмножестве доступных обучающих данных. , Поэтому, когда мы берем среднее значение прогнозов, сделанных всеми деревьями, мы наблюдаем уменьшение переобучения (по сравнению со случаем обучения одного единственного дерева решений для всех доступных данных ).
MN
- я = 0
- MMSя
- яTяSя
- процесс обучения аналогичен обучению дерева решений, за исключением того, что в каждом узле дерева для разделения в этом узле используется только случайный выбор признаков.
- я = я + 1
- я < N
T1T2TN
Если оно используется для задачи регрессии, в качестве окончательного прогноза случайного леса принимайте среднее значение прогнозов.
Если он используется для задачи классификации, используйте стратегию мягкого голосования : возьмите среднее значение вероятностей, предсказанных деревьями для каждого класса, а затем объявите класс с наибольшей средней вероятностью в качестве окончательного прогноза случайного леса.
Кроме того, стоит упомянуть, что можно обучать деревья последовательно зависимым образом, и это именно то, что делает алгоритм градиентных деревьев , который совершенно отличается от случайных лесов.