Tag: BATCH-NORMALIZATION
Tengo un problema. Quiero usar StandardScaler(), pero mi conjunto de datos contiene ciertos valores de OneHotEncoding y otros valores que no deben ser escalados. Pero si ejecuto StandardScaler(), todos los valores se escalan. ¿Existe alguna opción para ejecutar este método solo en ciertos valores dentro de una tubería? Encontré esta . . . Read more
Estoy intentando normalizar este conjunto de datos de imágenes de rayos-X en escala de grises https://www.kaggle.com/paultimothymooney/chest-xray-pneumonia. Tengo algunas dudas: 1) Investigé algunos de los proyectos realizados utilizando el mismo conjunto de datos y este que se muestra a continuación tiene tres valores promedio (presumiblemente para los tres canales). Pero, dado . . . Read more
Estoy tratando de crear una red neuronal y entrenar mis propias incrustaciones. La red tiene la siguiente estructura (PyTorch): import torch.nn as nn class MultiClassClassifer(nn.Module): #define all the layers used in model def __init__(self, vocab_size, embedding_dim, hidden_dim, output_dim): #Constructor super(MultiClassClassifer, self).__init__() #embedding layer self.embedding = nn.Embedding(vocab_size, embedding_dim) #dense layer self.hiddenLayer . . . Read more
Tengo un dataframe d y una de las columnas es price (Numérico) con 109248 filas. Dividí los datos en dos partes d_train y d_test. d_train tiene 73196 valores y d_test tiene 36052 valores. Ahora, para normalizar d_train['price'] y d_test['price'], hice algo como esto… price_scalar = Normalizer() X_train_price = price_scalar.fit_transform(d_train['price'].values.reshape(1, -1) . . . Read more
¿Cómo puedo reasignar los pesos de un marco de datos normalizado e imponer un límite? Por ejemplo, si tengo la siguiente fila de datos: 0.1 0.3 0.5 0.1 y no quiero que haya ningún peso mayor que 0.4. ¿Cómo puedo restringir el peso de 0.5 y redistribuir los pesos de . . . Read more