Вот пример моей проблемы
library(RWeka)
iris <- read.arff("iris.arff")
Выполните nfolds, чтобы получить надлежащую точность классификатора.
m<-J48(class~., data=iris)
e<-evaluate_Weka_classifier(m,numFolds = 5)
summary(e)
Представленные здесь результаты получены путем построения модели с частью набора данных и тестирования ее с другой частью, поэтому обеспечивают точную точность.
Теперь я выполняю AdaBoost для оптимизации параметров классификатора
m2 <- AdaBoostM1(class ~. , data = temp ,control = Weka_control(W = list(J48, M = 30)))
summary(m2)
Представленные здесь результаты получены с использованием одного и того же набора данных для построения модели, а также тех же, которые использовались для ее оценки, поэтому точность не является репрезентативной точностью, в которой мы используем другие экземпляры для оценки моделью. Тем не менее, эта процедура полезна для оптимизации построенной модели.
Основная проблема заключается в том, что я не могу оптимизировать построенную модель и в то же время протестировать ее на данных, которые не использовались для построения модели, или просто использовать метод многократной проверки для получения должной точности.