Estoy comparando un bosque aleatorio (RF) con una red neuronal feed-forward (NN) para predecir la riqueza de especies. En ambos modelos, utilicé los mismos (60) predictores. El problema es que los coeficientes de determinación (r2) y los errores cuadrados medios son muy similares, pero cuando grafico las predicciones vs las . . . Read more
Sé que puedes obtener la puntuación OOB en Random Forest de sklearn estableciendo oob_score=True en la función RandomForestRegressor. No estoy seguro si es posible, pero ¿existe alguna manera de obtener las observaciones y predicciones utilizadas para calcular esta puntuación OOB?
#Deje que el modelo de bosque aleatorio sea: rf_model from kale.common.serveutils import serve kfserver = serve(rf_model) #el modelo ahora está siendo implementado #preparar datos para la predicción data = [fila.tolist() for _, fila in train_df[predictor_var].head(10).iterrows()] data_json = json.dumps({"instancias": data}) #predicción usando el modelo implementado: pred = kfserver.predict(data_json)
Estoy intentando codificar una versión específica de un Random Forest y hacer que tanto los cálculos de entrenamiento como los de predicción sean paralelos utilizando joblib Parallel. Supongamos que he escrito un TreeEstimator con los métodos .fit y .predict. El método .fit devuelve la construcción del árbol y el método . . . Read more
Tengo un modelo para el siguiente ejemplo y quiero mostrar su estabilidad y consistencia/rendimiento a través de los k-folds. ¿Cuál es la mejor visualización/interpretación con este propósito? data(iris) mydf=iris[,1:4] control = trainControl(method=”repeatedcv”, number=5,repeats=5,savePredictions = TRUE) for_train = createDataPartition(mydf$Sepal.Length, p=.66, list=FALSE) train=mydf[for_train,] test=mydf[-for_train,] mytrf_iris = train(Sepal.Length~ ., data=train,ntree=800,method=”rf”,metric=”Rsquared”,trControl=control,importance = TRUE)