Я занимался настройкой модели caret
, но затем перезапустил модель, используя gbm
пакет. Насколько я понимаю, caret
пакет использует gbm
и вывод должен быть одинаковым. Тем не менее, только быстрый запуск теста data(iris)
показывает несоответствие в модели около 5% с использованием RMSE и R ^ 2 в качестве метрики оценки. Я хочу найти оптимальную производительность модели, используя, caret
но повторно запустить, gbm
чтобы использовать графики частичной зависимости. Код ниже для воспроизводимости.
Мои вопросы будут:
1) Почему я вижу разницу между этими двумя пакетами, хотя они должны быть одинаковыми (я понимаю, что они стохастические, но 5% - это большая разница, особенно когда я не использую такой хороший набор данных, как iris
для моего моделирования) ,
2) Есть ли какие-либо преимущества или недостатки в использовании обоих пакетов - если да, то какие?
3) Несвязанный: при использовании iris
набора данных оптимальным interaction.depth
является 5, однако он выше, чем то, что я прочитал, должно быть максимальное использование, floor(sqrt(ncol(iris)))
которое будет 2. Это жесткое правило или оно достаточно гибкое?
library(caret)
library(gbm)
library(hydroGOF)
library(Metrics)
data(iris)
# Using caret
caretGrid <- expand.grid(interaction.depth=c(1, 3, 5), n.trees = (0:50)*50,
shrinkage=c(0.01, 0.001),
n.minobsinnode=10)
metric <- "RMSE"
trainControl <- trainControl(method="cv", number=10)
set.seed(99)
gbm.caret <- train(Sepal.Length ~ ., data=iris, distribution="gaussian", method="gbm",
trControl=trainControl, verbose=FALSE,
tuneGrid=caretGrid, metric=metric, bag.fraction=0.75)
print(gbm.caret)
# caret determines the optimal model to be at n.tress=700, interaction.depth=5, shrinkage=0.01
# and n.minobsinnode=10
# RMSE = 0.3247354
# R^2 = 0.8604
# Using GBM
set.seed(99)
gbm.gbm <- gbm(Sepal.Length ~ ., data=iris, distribution="gaussian", n.trees=700, interaction.depth=5,
n.minobsinnode=10, shrinkage=0.01, bag.fraction=0.75, cv.folds=10, verbose=FALSE)
best.iter <- gbm.perf(gbm.gbm, method="cv")
print(best.iter)
# Here the optimal n.trees = 540
train.predict <- predict.gbm(object=gbm.gbm, newdata=iris, 700)
print(rmse(iris$Sepal.Length, train.predict))
# RMSE = 0.2377
R2 <- cor(gbm.gbm$fit, iris$Sepal.Length)^2
print(R2)
# R^2 = 0.9178`