es.davy.ai

Preguntas y respuestas de programación confiables

¿Tienes una pregunta?

Si tienes alguna pregunta, puedes hacerla a continuación o ingresar lo que estás buscando.

Tag: GRIDSEARCHCV

Iterar GridSearchCV en múltiples conjuntos de datos da como resultado idéntico para cada uno.

Estoy intentando realizar una búsqueda de rejilla en Scikit-learn para un algoritmo específico con diferentes hiperparámetros sobre múltiples conjuntos de datos de entrenamiento almacenados en un diccionario dedicado. Primero, llamo a los diferentes hiperparámetros y al modelo que se va a utilizar: from sklearn.model_selection import GridSearchCV scoring = [‘accuracy’, ‘balanced_accuracy’, . . . Read more

Diferencia entre GridSearchCV y Cross_Val_Score El GridSearchCV y el Cross_Val_Score son dos técnicas comunes utilizadas en el campo de la ciencia de datos y aprendizaje automático para evaluar y sintonizar los modelos. Ambas técnicas tienen diferentes características y se utilizan para propósitos distintos. El GridSearchCV es una herramienta que permite realizar una búsqueda exhaustiva de los mejores hiperparámetros para un modelo en particular. Se utiliza para optimizar los valores de los hiperparámetros (por ejemplo, el número de vecinos para el algoritmo de vecinos más cercanos o la profundidad máxima para un árbol de decisión) de un clasificador o regresor. Por otro lado, el Cross_Val_Score es una técnica que se utiliza para evaluar el rendimiento de un modelo a través de la validación cruzada. La validación cruzada divide los datos en diferentes particiones para entrenamiento y prueba, y luego realiza múltiples iteraciones para obtener una medida promedio del rendimiento del modelo. El Cross_Val_Score proporciona una puntuación de validación cruzada promedio que indica qué tan bien se generaliza el modelo. En resumen, el GridSearchCV se utiliza para encontrar los mejores hiperparámetros para un modelo, mientras que el Cross_Val_Score se utiliza para evaluar cómo se desempeña un modelo en distintas particiones de los datos mediante la validación cruzada. Ambas técnicas son útiles para mejorar el rendimiento y la generalización de los modelos en el campo de la ciencia de datos y el aprendizaje automático.

Tengo un problema de clasificación de series de tiempo binarias. Dado que es una serie de tiempo, no puedo simplemente dividir mis datos con train_test_split. Por lo tanto, utilicé el objeto tscv = TimeSeriesSplit() de este enlace, y obtuve algo como esto: Puedo ver en GridSearchCV y crossvalscore que puedo . . . Read more

¿Es posible establecer la estrategia de división para GridSearchCV?

Estoy optimizando los hiperparámetros del modelo utilizando GridSearchCv. Y debido a que los datos con los que estoy trabajando están muy desequilibrados, necesito “elegir” la forma en que el algoritmo divide los conjuntos de entrenamiento/prueba para asegurarme de que los puntos subrepresentados estén en ambos conjuntos. Al leer la documentación . . . Read more

Usando GridSearchCV, best_params_ arroja resultados pobres.

Estoy intentando ajustar los hiperparámetros para KNN en conjuntos de datos bastante pequeños (Kaggle Leaf, que tiene alrededor de 990 líneas): def knnTuning(self, x_train, t_train): params = { ‘n_neighbors’: [1, 2, 3, 4, 5, 7, 9], ‘weights’: [‘uniform’, ‘distance’], ‘leaf_size’: [5,10, 15, 20] } grid = GridSearchCV(KNeighborsClassifier(), params) grid.fit(x_train, t_train) . . . Read more

Obteniendo un error al intentar ajustar a GridSearchCV.

Estoy intentando ajustar un modelo de regresión de ridge a mis datos utilizando una tubería y GridSearchCV. from sklearn.compose import ColumnTransformer from sklearn.preprocessing import PolynomialFeatures from sklearn.pipeline import Pipeline X = transformed_data.iloc[:, :-1] y = transformed_data[‘class’] X_train, X_test, y_train, y_test = train_test_split(X, y, random_state=1) params = {} params[‘ridge__alpha’] = np.arange(0, . . . Read more