Tag: CROSS-VALIDATION
import pandas as pd import numpy as np from sklearn.model_selection import train_test_split, cross_val_score from sklearn.linear_model import LinearRegression boston = pd.read_csv(‘boston.csv’) x = boston.drop(‘medv’, axis=1).values y = boston[‘medv’].values reg = LinearRegression() cross_val_score(reg, x, y, cv=5) reg.predict(x) En el código anterior, calculo el puntaje de validación cruzada con 5 particiones para mi . . . Read more
En la documentación de sklearn.cross_validation.ShuffleSplit de sklearn se menciona lo siguiente: Nota: a diferencia de otras estrategias de validación cruzada, las divisiones aleatorias no garantizan que todos los pliegues sean diferentes, aunque esto sigue siendo muy probable para conjuntos de datos considerablemente grandes. ¿Es esto un problema? Si es así, . . . Read more
Contexto: Estaba leyendo la documentación de “Common Pitfalls” de scikit-learn. Me sorprendió la sección de “Control de aleatoriedad”, ya que en mi caso siempre he usado random_state con un entero. Pero al leer que el estimador debería usar una instancia de np.random.RandomState en la inicialización del clasificador, pero no en . . . Read more
Hola, he creado una red neuronal y necesito hacer una validación cruzada. No sé cómo hacer eso, específicamente cómo entrenar o hacer esa validación. Si alguien sabe cómo hacerlo, por favor escriba o indíqueme algunas indicaciones. Aquí está mi código: ###División de Entrenamiento / Prueba X = df.drop(‘Peso secado’,axis=1) # . . . Read more
Estoy usando Keras y GroupKFold. Mi dataset contiene varias entradas que aparecen más de una vez. Tiene sentido mantenerlas en el entrenamiento. Pero creo que mantenerlas en la validación es en el mejor de los casos superfluo y en el peor introduce sesgo en los resultados. ¿Cómo podría omitir las . . . Read more