Я только что создал модель Gradient Boosting, чей прогноз вне выборки хуже, чем у случайного леса. MSE для GBM на 10% выше, чем для случайного леса. Ниже мой пример кода. Я уверен, есть ли в этом что-то неправильное.
gbm1 <- gbm(as.formula(paste0(Y.idx ,'~', paste0(colnames(rf.tmp.train[c(-1,-2)],collapse=""))),
data=rf.tmp.train,distribution="gaussian",n.trees=3000,
shrinkage=0.001,interaction.depth=1,bag.fraction = 0.5,
train.fraction = 1,n.minobsinnode = 10, cv.folds = 10,
keep.data=TRUE, verbose=FALSE,n.cores=1)