Quiero primero realizar la imputación dentro de cada pliegue de validación cruzada y luego entrenar el modelo con el afinador automático y probarlo en los conjuntos de prueba. Puedo observar que una vez que se establece el esquema de remuestreo, la imputación queda fijada, por lo que solo se necesita . . . Read more
Tengo un modelo para el siguiente ejemplo y quiero mostrar su estabilidad y consistencia/rendimiento a través de los k-folds. ¿Cuál es la mejor visualización/interpretación con este propósito? data(iris) mydf=iris[,1:4] control = trainControl(method=”repeatedcv”, number=5,repeats=5,savePredictions = TRUE) for_train = createDataPartition(mydf$Sepal.Length, p=.66, list=FALSE) train=mydf[for_train,] test=mydf[-for_train,] mytrf_iris = train(Sepal.Length~ ., data=train,ntree=800,method=”rf”,metric=”Rsquared”,trControl=control,importance = TRUE)
Estoy intentando guardar todas las iteraciones de mis datos de prueba, clase y resultados predichos de mi KFold en un solo dataframe, pero me devuelve un ValueError: Shape of passed values is (1534, 3), indices imply (1, 3). ¿Cómo puedo solucionar esto? Mi código: for train_index, test_index in kf.split(X): X_train, . . . Read more
Primero, como hablante de español no nativo, estoy utilizando un traductor para resolver mi problema. Les pido comprensión si la oración es torpe y difícil de leer. Intento aprender datos a través de la validación cruzada Kfold. Sin embargo, ocurren errores continuos en el proceso de dividir los datos de . . . Read more