Tag: BAYESIAN-DEEP-LEARNING
He leído que regular el término de sesgo es importante para mejorar el rendimiento de las redes LSTM. Aquí hay algunas fuentes: https://www.exxactcorp.com/blog/Deep-Learning/5-types-of-lstm-recurrent-neural-networks-and-what-to-do-with-them http://proceedings.mlr.press/v37/jozefowicz15.pdf ¿Alguien sabe cómo implementarlo en Pytorch?
Intenté usar el cargador de datos en TensorFlow, pero ¿cómo puedo definir el cargador de datos en PyTorch? Define los cargadores de datos: train_loader = tf.data.Dataset.from_tensor_slices((x_train, y_train)) validation_loader = tf.data.Dataset.from_tensor_slices((x_val, y_val)) Por favor, alguien ayúdeme.
Aquí, X_train = el 75% de mis datos de imagen de cáncer, que tienen 3 clases. Y_train = las imágenes están etiquetadas como [0,0,0,0,0,1,1,1,1,1,1,1,2,2,2,2,2] X_test = el 25% de las imágenes de mi conjunto de datos de cáncer resultados = modelo.fit(X_train, Y_train, X_test, validation_split=0.1, batch_size=6, epochs=5, # Pero estoy obteniendo . . . Read more
Clase CustomImageItemList(ImageList): def custom_label(self,df, **kwargs)->’LabelList’: “””Etiquetas personalizadas desde la ruta””” file_names=np.vectorize(lambda files: str(files).split(‘/’)[-1][:-4]) get_labels=lambda x: df.loc[x,’lesion’] #self.items es un np array de objetos PosixPath con cada ruta de imagen labels= get_labels(file_names(self.items)) y = CategoryList(items=labels) res = self._label_list(x=self,y=y) return res def get_data(bs, size): train_ds = (CustomImageItemList.from_folder(path, extensions=’.jpg’) .random_split_by_pct(0.15) .custom_label(df) .transform(tfms=get_transforms(flip_vert=True),size=size) .databunch(num_workers=2, . . . Read more
Intentando ejecutar un script de entrenamiento, después de resolver algunos mensajes de error, me he encontrado con este error: ¿Alguien sabe qué está sucediendo aquí? ¡Tamaño del lote > 1 no implementado! Regresando a batch_size = 1 … Construyendo modelo multimodal… Cargando parámetros del modelo. Rastreo de pila (última llamada . . . Read more