Я новичок в моделировании с нейронными сетями, но мне удалось создать нейронную сеть со всеми доступными точками данных, которая хорошо соответствует наблюдаемым данным. Нейронная сеть была сделана в R с пакетом nnet:
require(nnet)
##33.8 is the highest value
mynnet.fit <- nnet(DOC/33.80 ~ ., data = MyData, size = 6, decay = 0.1, maxit = 1000)
mynnet.predict <- predict(mynnet.fit)*33.80
mean((mynnet.predict - MyData$DOC)^2) ## mean squared error was 16.5
Данные, которые я анализирую, выглядят следующим образом, где DOC - это переменная, которую необходимо смоделировать (существует около 17 000 наблюдений):
Q GW_level Temp t_sum DOC
1 0.045 0.070 12.50 0.2 11.17
2 0.046 0.070 12.61 0.4 11.09
3 0.046 0.068 12.66 2.8 11.16
4 0.047 0.050 12.66 0.4 11.28
5 0.049 0.050 12.55 0.6 11.45
6 0.050 0.048 12.45 0.4 11.48
Теперь я прочитал, что модель должна быть обучена с 70% точек данных и проверена с оставшимися 30% точек данных. Как мне это сделать? Какие функции мне нужно использовать?
Я использовал функцию train из пакета caret для расчета параметров размера и затухания.
require(caret)
my.grid <- expand.grid(.decay = c(0.5, 0.1), .size = c(5, 6, 7))
mynnetfit <- train(DOC/33.80 ~ ., data = MyData, method = "nnet", maxit = 100, tuneGrid = my.grid, trace = f)
Любая прямая помощь или связь с другими сайтами / сообщениями очень ценится.